Compare commits

..

2 Commits
main ... main

Author SHA1 Message Date
dc56cc0ff6 Minimale Anpassungen in Abschnitt 2.1 und 2.2 2025-05-02 18:42:02 +02:00
07dfa95c9c Kleine Tippfehler ausgemerzt 2025-05-02 18:25:17 +02:00
8 changed files with 277 additions and 322 deletions

View File

@ -19,25 +19,3 @@ Quotientenvektorraums
Erzeugendensystem Erzeugendensystem
Quotientenvektorräume Quotientenvektorräume
Repräsentantenniveau Repräsentantenniveau
Jordanscher
Matrixexponential
Matrixexponentials
Einsetzungsabbildung
Cayley-Hamilton
TFAE
Jordanblocks
Einsetzungsmorphismus
Abstandserhaltende
abstandserhaltend
metrikerhaltend
abstandserhaltenden
abstandserhaltender
abstandserhaltende
Definitheit
ONB
Kronecker-Delta
semidefinit
Bytestrings
Bilinearität
Semilinearität
Sesquilinearlinearform

View File

@ -7,29 +7,3 @@
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"} {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2020 ständig weiter geschrieben.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"} {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDieses Skript zur Vorlesung „Lineare Algebra II“ wird im Laufe des Sommersemester 2025 ständig weiter geschrieben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QWir beweisen Satz \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q nach einigen Vorbereitungen im Abschnitt ssec:pjnf.\\E$"}
{"rule":"DE_COMPOUND_COHERENCY","sentence":"^\\QAls nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken ausrechnen.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QIch wiederhole die Warnung aus „Lineare Algebra I“.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qden Grad des Polynoms, in Formeln \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im ersten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"DE_CASE","sentence":"^\\Q[Positive Definitheit] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Satz des Pythagoras] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+$"}
{"rule":"KOMMA_ZWISCHEN_HAUPT_UND_NEBENSATZ","sentence":"^\\QDann gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Pythagoras \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist abstandserhaltend \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QKpte.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität im zweiten Argument] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"UNPAIRED_BRACKETS","sentence":"^\\Q“Velociraptoren” sind etwas ganz anderes als “romantische Gefühle”, auch wenn beide Menschen verzehren.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QDidaktisch ist das eine Katastrophe wir haben in der Vorlesung „Lineare Algebra I“ jeder linearen Abbildung eine Matrix zugeordnet.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Bilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Damit beweisen Sie unter anderem folgendes: gegeben Zahlen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dann gibt es genau eine Bilinearform \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt, dass \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QGenauer: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Matrizen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBilinearformen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qsymm.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QLesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere: Endomorphismen) als auch bilineare Abbildungen zu beschreiben.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDie wesentliche Eigenschaft von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q war zusammengefasst in der Kommutativität des folgenden Diagramms, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q In einer Zeile: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QSesqui = Eineinhalb\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Linearität in der ersten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\Q[Semilinearität in der zweiten Komponente] Für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KOMMA_VOR_ERLAEUTERUNG","sentence":"^\\QBeachten Sie, dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Paris) war ein französischer Mathematiker.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWill ich das wirklich wissen?.\\E$"}

View File

@ -21,15 +21,15 @@ Diagonalgestalt hat.
\begin{defn}[Diagonalisierbarer Endomorphismus] \begin{defn}[Diagonalisierbarer Endomorphismus]
In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine \emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine
Basis $B$ von $V$ gibt, sodass $\Mat^B_B$ eine Diagonalmatrix ist. Basis $B$ von $V$ gibt, sodass $\Mat^B_B(f)$ eine Diagonalmatrix ist.
\end{defn} \end{defn}
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert. Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
\begin{defn}[Diagonalisierbare Matrix] \begin{defn}[Diagonalisierbare Matrix]
Es sei $k$ ein Körper und $n ∈ $ eine Zahl. Eine $n n$-Matrix $A$ heißt Es sei $k$ ein Körper und $n ∈ $ eine Zahl. Eine $(n n)$-Matrix $A$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer \emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ Gl_n(k)$, sodass $SAS^{-1}$ eine Diagonalmatrix ähnlich ist, d. h. $∃S ∈ GL_n(k)$, sodass $SAS^{-1}$ eine
Diagonalmatrix ist. Diagonalmatrix ist.
\end{defn} \end{defn}
@ -85,14 +85,14 @@ Punkte abgezogen wurden.}.
$$ $$
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3). g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
$$ $$
Also ist $\deg(g) = 6$ und die Nullstellen von g sind $i$, $2$ und $3$ Also ist $\deg(g) = 6$ und die Nullstellen von $g$ sind $i$, $2$ und $3$
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3). (jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
\end{erinnerung} \end{erinnerung}
\section{Algebraische und geometrische Vielfachheit} \section{Algebraische und geometrische Vielfachheit}
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun ein Skalar $λ ∈ k$ gegeben Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun einen Skalar $λ ∈ k$ gegeben
habe, kann ich die folgenden zwei Zahlen betrachten. habe, kann ich die folgenden zwei Zahlen betrachten.
\begin{itemize} \begin{itemize}
\item Die \emph{algebraische Vielfachheit von \item Die \emph{algebraische Vielfachheit von
@ -128,9 +128,9 @@ habe, kann ich die folgenden zwei Zahlen betrachten.
$$ $$
\end{prop} \end{prop}
\begin{proof} \begin{proof}
Sei ein Skalar $λ$ gegeben. Falls geometrische Vielfachheit von $λ$ gleich Sei ein Skalar $λ$ gegeben. Falls die geometrische Vielfachheit von $λ$ gleich
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$ Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
größer als Null. Das bedeutet: Es gibt eine lineare unabhängige (angeordnete) größer als Null. Das bedeutet: Es gibt eine linear unabhängige (angeordnete)
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige (angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
Matrix von der Form Matrix von der Form

View File

@ -9,7 +9,7 @@
\sideremark{Vorlesung 2}Wir hatten im letzten Kapitel ein Beispiel~\ref{bsp:1.1} \sideremark{Vorlesung 2}Wir hatten im letzten Kapitel ein Beispiel~\ref{bsp:1.1}
für einen Endomorphismus gesehen, der nicht diagonalisierbar ist. Aus der für einen Endomorphismus gesehen, der nicht diagonalisierbar ist. Aus der
Traum. In diesem Kapitel werden wir zeigen, dass es aber stets eine Basis gibt, Traum. In diesem Kapitel werden wir zeigen, dass es aber stets eine Basis gibt,
sodass die zugehörende Matrix eine besonders einfache Gestalt hat -- zumindest, sodass die dazugehörige Matrix eine besonders einfache Gestalt hat -- zumindest,
solange wir über den komplexen Zahlen arbeiten. Genauer gesagt: wir werden solange wir über den komplexen Zahlen arbeiten. Genauer gesagt: wir werden
zeigen, dass es eine Basis gibt, sodass die Matrix „Jordansche Normalform“ zeigen, dass es eine Basis gibt, sodass die Matrix „Jordansche Normalform“
hat\footnote{\href{https://de.wikipedia.org/wiki/Camille_Jordan}{Marie Ennemond hat\footnote{\href{https://de.wikipedia.org/wiki/Camille_Jordan}{Marie Ennemond
@ -62,7 +62,7 @@ auch eine Menge Videos auf
\end{bsp} \end{bsp}
\begin{defn}[Jordansche Normalform] \begin{defn}[Jordansche Normalform]
Es sei $k$ ein Körper und $n ∈ $ sei eine Zahl. Eine $n n$-Matrix $A = Es sei $k$ ein Körper und $n ∈ $ sei eine Zahl. Eine $(n n)$-Matrix $A =
(a_{ij})$ hat \emph{Jordansche Normalform}\index{Jordansche Normalform}, falls (a_{ij})$ hat \emph{Jordansche Normalform}\index{Jordansche Normalform}, falls
$A$ Blockgestalt hat, wobei auf der Diagonalen Jordanblöcke stehen und alle $A$ Blockgestalt hat, wobei auf der Diagonalen Jordanblöcke stehen und alle
anderen Blöcke gleich Null sind. anderen Blöcke gleich Null sind.
@ -110,13 +110,13 @@ Das Ziel dieses Kapitels ist jetzt, den folgenden Satz zu beweisen.
\begin{satz}[Jordansche Normalform]\label{satz:JNF}% \begin{satz}[Jordansche Normalform]\label{satz:JNF}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und
es sei $f ∈ \End(V)$ ein Endomorphismus. Dann gibt es eine angeordnete Basis es sei $f ∈ \End(V)$ ein Endomorphismus. Dann gibt es eine angeordnete Basis
$\mathcal{B}$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche $B$ von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche
Normalform hat. Normalform hat.
\end{satz} \end{satz}
\begin{notation} \begin{notation}
Situation wie in Satz~\ref{satz:JNF}. Eine Situation wie in Satz~\ref{satz:JNF}. Eine
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $\mathcal{B}$ \emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $B$
von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche Normalform von $V$, sodass die darstellende Matrix $\Mat^B_B(f)$ Jordansche Normalform
hat. hat.
\end{notation} \end{notation}
@ -139,7 +139,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{defn}[Nilpotente Endomorphismen]\label{def:NEnd}% \begin{defn}[Nilpotente Endomorphismen]\label{def:NEnd}%
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
es sei $f ∈ \End(V)$. Nenne den Endomorphismus $f$ es sei $f ∈ \End(V)$. Nenne den Endomorphismus $f$
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls seine Zahl $m ∈ $ \emph{nilpotent}\index{nilpotent!Endomorphismus}, falls eine Zahl $m ∈ $
existiert, sodass $f^m = f ◦ ⋯ ◦ f$ die Nullabbildung ist. Die kleinste existiert, sodass $f^m = f ◦ ⋯ ◦ f$ die Nullabbildung ist. Die kleinste
solche Zahl $m$ heißt \emph{Nilpotenzindex von solche Zahl $m$ heißt \emph{Nilpotenzindex von
$f$}\index{Nilpotenzindex!Endomorphismus}. $f$}\index{Nilpotenzindex!Endomorphismus}.
@ -148,7 +148,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{defn}[Nilpotente Matrizen] \begin{defn}[Nilpotente Matrizen]
Es sei $k$ ein Körper, es sei $n ∈ $ eine Zahl und $A$ eine $( n n)$-Matrix Es sei $k$ ein Körper, es sei $n ∈ $ eine Zahl und $A$ eine $( n n)$-Matrix
mit Werten in $k$. Nenne die Matrix $A$ mit Werten in $k$. Nenne die Matrix $A$
\emph{nilpotent}\index{nilpotent!Matrix}, falls seine Zahl $m ∈ $ existiert, \emph{nilpotent}\index{nilpotent!Matrix}, falls eine Zahl $m ∈ $ existiert,
sodass $A^m = A ⋯ A$ die Nullmatrix ist. Die kleinste solche Zahl $m$ heißt sodass $A^m = A ⋯ A$ die Nullmatrix ist. Die kleinste solche Zahl $m$ heißt
\emph{Nilpotenzindex von $A$}\index{Nilpotenzindex!Matrix}. \emph{Nilpotenzindex von $A$}\index{Nilpotenzindex!Matrix}.
\end{defn} \end{defn}
@ -165,7 +165,7 @@ Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{beobachtung} \begin{beobachtung}
Matrizen, die ähnlich zu einer nilpotenten Matrix sind, sind selbst nilpotent. Matrizen, die ähnlich zu einer nilpotenten Matrix sind, sind selbst nilpotent.
Genauer: Sei $A$ eine $(n n)$-Matrix und sei $S ∈ Gl(n, k)$, sodass $N := Genauer: Sei $A$ eine $(n n)$-Matrix und sei $S ∈ GL(n, k)$, sodass $N :=
SAS^{-1}$ nilpotent ist mit Index $m$. Dann ist SAS^{-1}$ nilpotent ist mit Index $m$. Dann ist
$$ $$
0 = N^m = SAS^{-1} · SAS^{-1} · ⋯ · SAS^{-1} = SA^mS^{-1}. 0 = N^m = SAS^{-1} · SAS^{-1} · ⋯ · SAS^{-1} = SA^mS^{-1}.
@ -272,7 +272,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
0 & A 0 & A
\end{array}\right). \end{array}\right).
$$ $$
Es ist $χ_f(t) = (t-λ)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache Es ist $χ_f(t) = (λ-t)·χ_A(t)$ und deshalb ist $λ$ eine $(r-1)$-fache
Nullstelle des Polynoms $χ_A$. Nullstelle des Polynoms $χ_A$.
@ -355,7 +355,7 @@ und Eigenraum viel enger: Der Hauptraum erklärt die geometrische Bedeutung der
\begin{align*} \begin{align*}
\vec{v}¹_1, …, \vec{v}¹_{r_1} & \quad \text{eine Basis von } W_1 \\ \vec{v}¹_1, …, \vec{v}¹_{r_1} & \quad \text{eine Basis von } W_1 \\
\vec{v}²_1, …, \vec{v}²_{r_2} & \quad \text{eine Basis von } W_2 \\ \vec{v}²_1, …, \vec{v}²_{r_2} & \quad \text{eine Basis von } W_2 \\
\\ \vdots \\
\vec{v}^k_1, …, \vec{v}^k_{r_k} & \quad \text{eine Basis von } W_k. \vec{v}^k_1, …, \vec{v}^k_{r_k} & \quad \text{eine Basis von } W_k.
\end{align*} \end{align*}
Dann ist $\mathcal{B} := \{\vec{v}¹_1, …, \vec{v}¹_{r_1}, \vec{v}²_1, …, Dann ist $\mathcal{B} := \{\vec{v}¹_1, …, \vec{v}¹_{r_1}, \vec{v}²_1, …,
@ -404,7 +404,7 @@ Jordansche Normalform zu zeigen. Die Korollare~\ref{kor:2-2-11} und
die Matrix $A_i$ der eingeschränkten Abbildungen $f|_{W_i} : W_i → W_i$ die Matrix $A_i$ der eingeschränkten Abbildungen $f|_{W_i} : W_i → W_i$
Jordansche Normalform hat, genügt es, eine Basis zu finden, sodass die Matrix Jordansche Normalform hat, genügt es, eine Basis zu finden, sodass die Matrix
$N_i$ der nilpotenten Abbildung $f|_{W_i} - λ_\Id_{W_i}$ Jordansche $N_i$ der nilpotenten Abbildung $f|_{W_i} - λ_\Id_{W_i}$ Jordansche
Normalform hat (… denn dann hat auch $A_i = λ_\Id_{r_i} + N_i$ Jordansche Normalform hat (…denn dann hat auch $A_i = λ_\Id_{r_i} + N_i$ Jordansche
Normalform) Normalform)
\end{enumerate} \end{enumerate}
@ -626,7 +626,8 @@ zur „dualen Partition“ übergehen.
eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt eine Basis des Quotientenraums $\factor{V^p}{V^{p-1}}$ bilden. Schreibe jetzt
die Vektoren die Vektoren
\[ \[
f(\vec w_1), …, f(\vec w_a), \vec v^p_1, …, \vec v^p_{m_p-a} \overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
v^p_{m_p-a}
\] \]
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$. Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.

View File

@ -78,14 +78,14 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\end{lem} \end{lem}
\begin{proof}[Beweis als Übungsaufgabe] \begin{proof}[Beweis als Übungsaufgabe]
Schreibe wieder einmal $J(λ,n) = λ·\Id_{nn} + J(0,n)$ und Schreibe wieder einmal $J(λ,n) = λ·\Id_{n n} + J(0,n)$ und
\[ \[
J(λ,n)^p =\bigl( λ·\Id_{nn} + J(0,n) \bigr)^p J(λ,n)^p =\bigl( λ·\Id_{n n} + J(0,n) \bigr)^p
\] \]
Beachten Sie, dass die Matrizen $λ·\Id_{nn}$ und $J(0,n)$ kommutieren, Beachten Sie, dass die Matrizen $λ·\Id_{n n}$ und $J(0,n)$ kommutieren,
dass also die Gleichheit dass also die Gleichheit
\[ \[
λ·\Id_{nn}·J(0,n) = λ·J(0,n)·\Id_{nn} λ·\Id_{n n}·J(0,n) = λ·J(0,n)·\Id_{n n}
\] \]
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen. binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
@ -116,10 +116,10 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen] \begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
Es sei $A$ eine beliebige quadratische $(nn)$-Matrix über den komplexen Es sei $A$ eine beliebige quadratische $(n n)$-Matrix über den komplexen
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
effizient eine invertierbare Matrix $S ∈ GL_n()$ finden, sodass $B := eine invertierbare Matrix $S ∈ GL_n()$ finden, so dass $B := S·A·S^{-1}$
S·A·S^{-1}$ Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
\[ \[
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S. A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
\] \]
@ -131,9 +131,9 @@ macht die Formel kurz und in der Praxis gut berechenbar.
\subsection{Wiederholung} \subsection{Wiederholung}
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennengelernt, In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
\[ \[
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}. \exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}
\] \]
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
wissen, dass für jede reelle Zahl $t$ gilt wissen, dass für jede reelle Zahl $t$ gilt
@ -148,30 +148,30 @@ Falls nicht, ist jetzt eine gute Gelegenheit, diese Dinge auf
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
überlasse ich aber den Kollegen von der Analysis. Gegeben eine überlasse ich aber den Kollegen von der Analysis. Gegeben eine
$(nn)$-Matrix $A$ über den komplexen Zahlen, definiere ich $(n n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
\[ \[
\exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n. \exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n.
\] \]
Dabei sei $A⁰$ stets die $(nn)$-Einheitsmatrix. Diese Reihe konvergiert in Dabei sei $A⁰$ stets die $(n n)$-Einheitsmatrix. Diese Reihe konvergiert
dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert -- in dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
Operatornorm, …. Ich erhalte so eine Abbildung Operatornorm, …. Ich erhalte so eine Abbildung
\[ \[
\exp : \Mat_{nn}() → \Mat_{nn}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n, \exp : \Mat_{n n}() → \Mat_{n n}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n
\] \]
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
wird. Sie finden weitere Erläuterungen und erste Beispiele bei wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}. \href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
\begin{bsp} \begin{bsp}
Es sei $A$ eine komplexe $(nn)$-Diagonalmatrix, Es sei $A$ eine komplexe $(n n)$-Diagonalmatrix,
\[ \[
A = \begin{pmatrix} A = \begin{pmatrix}
λ_1 & & & 0 \\ λ_1 & & & 0 \\
& λ_2 & \\ & λ_2 & \\
& & \ddots \\ & & \ddots \\
0 & & & λ_n 0 & & & λ_n
\end{pmatrix}. \end{pmatrix}
\] \]
Dann ist Dann ist
\[ \[
@ -192,14 +192,15 @@ wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\] \]
\end{bsp} \end{bsp}
Etwas weitergehende Beispiele finden Sie als Etwas
weitergehende Beispiele finden Sie als
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel \href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des 1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
Matrixexponentials. Matrixexponentials.
\begin{fakt}[Elementare Fakten zum Matrixpotential] \begin{fakt}[Elementare Fakten zum Matrixpotential]
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe $(n Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe
n)$-Matrizen. $(n n)$-Matrizen.
\begin{enumerate} \begin{enumerate}
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$ \item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
ist), dann gilt ist), dann gilt
@ -207,8 +208,8 @@ Matrixexponentials.
\exp(A+B)=\exp(A)·\exp(B). \exp(A+B)=\exp(A)·\exp(B).
\] \]
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(nn)$-Matrix $S$ \item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n n)$-Matrix
ist $S$ ist
\[ \[
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed \exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
\] \]
@ -216,40 +217,40 @@ Matrixexponentials.
\end{fakt} \end{fakt}
\begin{beobachtung} \begin{beobachtung}
Wenn $A$ irgendeine komplexe $(nn)$-Matrix ist, dann kommutieren die Matrizen Wenn $A$ irgendeine komplexe $(n n)$-Matrix ist, dann kommutieren die
$A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1} Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
\[ \[
\Id_{nn} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A). \Id_{n n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
\] \]
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
$(nn)$-Matrix $A$ stets invertierbar ist, und dass $\exp(A)^{-1} = \exp(-A)$ $(n n)$-Matrix $A$ stets invertierbar ist, und dass
gilt. $\exp(A)^{-1} = \exp(-A)$ gilt.
\end{beobachtung} \end{beobachtung}
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot} Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen. jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
\section{Lineare, homogene Differenzialgleichungssysteme} \section{Lineare, homogene Differentialgleichungssysteme}
\subsection{Erinnerung} \subsection{Erinnerung}
Sie haben lineare, homogene Differenzialgleichungen wahrscheinlich schon in der Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
Schule kennengelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist
eine differenzierbare Funktion $y : $, sodass für alle $t ∈ $ gilt: $y'(t) eine differenzierbare Funktion $y : $, so dass für alle $t ∈ $
= a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung Analysis wissen gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
Sie, dass es nur eine solche Funktion gibt: Analysis wissen Sie, dass es nur eine solche Funktion gibt:
$$ $$
y(t) = \exp(t·a)·y_0. y(t) = \exp(t·a)·y_0.
$$ $$
Dasselbe funktioniert genau so mit komplexen Zahlen. Dasselbe funktioniert genau so mit komplexen Zahlen.
\subsection{Lineare, homogene Differenzialgleichungssysteme} \subsection{Lineare, homogene Differentialgleichungssysteme}
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(nn)$-Matrix $A$ und ein Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(n n)$-Matrix $A$
Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1$, und ein Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare
…, $y_n : $, sodass für alle $t ∈ $ gilt: Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt:
\[ \[
\begin{pmatrix} \begin{pmatrix}
y'_1(t) \\ y'_1(t) \\
@ -264,7 +265,7 @@ Vektor $\vec{y}_0 ∈ ^n$. Gesucht sind $n$ differenzierbare Funktionen $y_1
y_2(t) \\ y_2(t) \\
\vdots \\ \vdots \\
y_n(t) y_n(t)
\end{pmatrix}. \end{pmatrix}
\] \]
Außerdem soll Außerdem soll
\[ \[
@ -278,8 +279,8 @@ Außerdem soll
\] \]
sein. sein.
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}% \begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
Dieses Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
gegeben als gegeben als
\[ \[
\begin{pmatrix} \begin{pmatrix}
@ -298,12 +299,12 @@ sein.
\end{bsp} \end{bsp}
\subsection{Differenzialgleichungen höherer Ordnung} \subsection{Differentialgleichungen höherer Ordnung}
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
Differenzialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion $y : $, $c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
sodass für alle $t ∈ $ gilt: $y : $, so dass für alle $t ∈ $ gilt:
\begin{equation}\label{eq:3-3-2-1} \begin{equation}\label{eq:3-3-2-1}
y'''(t) = a·y(t)+b·y'(t)+c·y''(t). y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
\end{equation} \end{equation}
@ -343,9 +344,9 @@ dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
y_0 \\ y_0 \\
y'_0 \\ y'_0 \\
y''_0 y''_0
\end{pmatrix}. \end{pmatrix}
\] \]
Nach der Lösungsformel für lineare, homogene Differenzialgleichungssysteme, Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen. Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
\begin{bsp} \begin{bsp}

View File

@ -18,8 +18,9 @@ In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰. f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
\] \]
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und
$x⁵-7·x²+12·x-5$, sondern ganz allgemein. Die passende Definition kommt sofort, $x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome“. sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
``Polynome''.
\begin{defn}[Polynome] \begin{defn}[Polynome]
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
@ -44,15 +45,15 @@ aber zuerst erinnern wir uns an eine einige Definitionen zum Thema „Polynome
Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$. Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$.
\end{bsp} \end{bsp}
Ich wiederhole die Warnung aus „Lineare Algebra I“. Wie wir in der Schule Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$, $λ ↦ gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
p(λ)$, die man oft irreführenderweise ebenfalls mit $p$ bezeichnet. Beachten $λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
Sie aber, dass Polynome zwar Abbildungen liefern, aber keine Abbildungen sind! bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist, dann sind die Polynome keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
$t$, $$, $$, … alle unterschiedlich (denn sie haben ja unterschiedlichen dann sind die Polynome $t$, $$, $$, … alle unterschiedlich (denn sie haben
Grad). Die zugehörigen Abbildungen sind aber alle gleich. Insgesamt gibt es ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
unendliche viele Polynome, aber natürlich nur endlich viele Selbstabbildungen Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
des endlichen Körpers $𝔽_2$. Selbstabbildungen des endlichen Körpers $𝔽_2$.
\begin{defn}[Einsetzungsabbildung für Endomorphismen] \begin{defn}[Einsetzungsabbildung für Endomorphismen]
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
@ -67,16 +68,17 @@ des endlichen Körpers $𝔽_2$.
\] \]
genannt genannt
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}. \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine Matrix $p(A)$ und $k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
eine \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen} $s: k[t] Matrix $p(A)$ und eine
\Mat(nn, k)$ durch $s(A) = p(A)$. \emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
$s: k[t]\Mat(n n, k)$ durch $s(A) = p(A)$.
\end{defn} \end{defn}
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}% \begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
Gegeben eine Zahl $n ∈ $, eine $(nn)$-Matrix $A$ mit Einträgen in $k$ und Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare Matrix $S ∈ $k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
GL_n(k)$ haben, dann ist Matrix $S ∈ GL_n(k)$ haben, dann ist
\[ \[
p(S·A·S^{-1}) = S·p(A)·S^{-1}. p(S·A·S^{-1}) = S·p(A)·S^{-1}.
\] \]
@ -98,10 +100,6 @@ Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das? Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}] \begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
Der Satz von Cayley-Hamilton gilt für beliebige Körper $k$. Der vollständige
Beweis verwendet aber Begriffe der Algebra (den „algebraischen Abschluss eines
Körpers“), die uns derzeit noch nicht zur Verfügung stehen. Deshalb beweisen
wir den Satz im folgenden Video nur im Spezialfall $k = \bC$.
\video{6-1} \video{6-1}
\end{proof} \end{proof}
@ -110,22 +108,22 @@ Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
Polynom $p(t) ∈ k[t]$ gibt, sodass $p(f) = 0$ ist. Und nein, wir wollen nicht Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
das Nullpolynom betrachten. das Nullpolynom betrachten.
\begin{beobachtung}\label{beob:4-0-7}% \begin{beobachtung}\label{beob:4-0-7}
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder ein $p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder
Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
1 ist. 1 ist.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}\label{beob:4-0-8}% \begin{beobachtung}\label{beob:4-0-8}
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
von $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt $q $p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
:= p_1-p_2$. Dann gilt Folgendes. $q := p_1-p_2$. Dann gilt Folgendes.
\begin{itemize} \begin{itemize}
\item Das Polynome $q$ ist nicht das Nullpolynom. \item Das Polynome $q$ ist nicht das Nullpolynom.
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$. \item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$.
@ -153,7 +151,7 @@ Diese Beobachtungen legen folgende Definition nahe.
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
das Minimalpolynom eindeutig bestimmt ist. dies Minimalpolynome eindeutig bestimmt ist.
\end{bemerkung} \end{bemerkung}
\begin{bsp} \begin{bsp}
@ -164,9 +162,9 @@ Diese Beobachtungen legen folgende Definition nahe.
5 & 1 & 0 \\ 5 & 1 & 0 \\
0 & 5 & 0 \\ 0 & 5 & 0 \\
0 & 0 & 5 0 & 0 & 5
\end{pmatrix}. \end{pmatrix}
\] \]
Da die Matrix $A$ kein Vielfaches von $\Id_{33}$, ist das Da die Matrix $A$ kein Vielfaches von $\Id_{3 3}$, ist das
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
\[ \[
A² = A² =
@ -174,9 +172,9 @@ Diese Beobachtungen legen folgende Definition nahe.
25 & 10 & 0 \\ 25 & 10 & 0 \\
0 & 25 & 0 \\ 0 & 25 & 0 \\
0 & 0 & 25 0 & 0 & 25
\end{pmatrix}. \end{pmatrix}
\] \]
Also ist $-10·A+25·\Id_{33} = 0$. Also ist Also ist $-10·A+25·\Id_{3 3} = 0$. Also ist
$p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle $p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
hat. Das muss dann wohl das Minimalpolynom sein. hat. Das muss dann wohl das Minimalpolynom sein.
\end{bsp} \end{bsp}
@ -192,13 +190,13 @@ Diese Beobachtungen legen folgende Definition nahe.
Minimalpolynom. Minimalpolynom.
\end{beobachtung} \end{beobachtung}
Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms. Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\begin{satz}[Andere Polynome mit $f$ als Nullstelle] \begin{satz}[Andere Polynome mit $f$ als Nullstelle]
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$ In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle hat. sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: Es gibt hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
ein Polynom $r(t)$, sodass $q(t) = r(t)·p(t)$ ist. gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
@ -209,9 +207,9 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$ \item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
als Nullstelle haben und die kein Vielfaches von $p$ sind. als Nullstelle haben und die kein Vielfaches von $p$ sind.
\end{enumerate} \end{enumerate}
Dann ist ganz klar per Definition von „Minimalpolynom“ $\deg q ≥ \deg p$. Es Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls normiert ist p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
und $f$ als Nullstelle hat. Also hat normiert ist und $f$ als Nullstelle hat. Also hat
\[ \[
r(t) = q(t) - t^d·p(t) r(t) = q(t) - t^d·p(t)
\] \]
@ -222,8 +220,8 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
\end{proof} \end{proof}
\begin{satz}[Nullstellen des Minimalpolynoms] \begin{satz}[Nullstellen des Minimalpolynoms]
Es sei $k$ ein Körper, $A$ eine $(nn)$-Matrix mit Werten in $k$ und $λ ∈ k$. Es sei $k$ eine Körper, $A$ eine $(n n)$-Matrix mit Werten in $k$ und
TFAE: $λ ∈ k$. TFAE:
\begin{enumerate} \begin{enumerate}
\item Das Skalar $λ$ ist ein Eigenwert von $A$. \item Das Skalar $λ$ ist ein Eigenwert von $A$.
@ -241,7 +239,7 @@ Der folgende Satz liefert eine erste Beschreibung des Minimalpolynoms.
vollständig beantworten. vollständig beantworten.
\begin{satz}[Beschreibung des Minimalpolynoms über $$] \begin{satz}[Beschreibung des Minimalpolynoms über $$]
Es sei $A$ eine $(nn)$-Matrix über den komplexen Zahlen. Bezeichne die Es sei $A$ eine $(n n)$-Matrix über den komplexen Zahlen. Bezeichne die
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$ Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
\[ \[
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i. m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.

View File

@ -7,12 +7,12 @@
\section{Die Euklidische Norm und der Euklidische Abstand} \section{Die Euklidische Norm und der Euklidische Abstand}
\label{sec:end} \label{sec:end}
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume \sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir dann anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir
beliebige Vektorräume. dann beliebige Vektorräume.
\begin{defn}[Euklidische Norm auf dem $^n$] \begin{defn}[Euklidische Norm auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -49,16 +49,17 @@ Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
\section{Abstandserhaltende Abbildungen} \section{Abstandserhaltende Abbildungen}
Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
beziehungsweise den Euklidischen Abstand respektieren. beziehungsweise den Euklidischen Abstand respektieren.
\begin{defn} \begin{defn}
Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt
\emph{abstandserhaltend bezüglich der Euklidischen \emph{abstandserhaltend bezüglich der Euklidischen
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}}
\emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende oder \emph{metrikerhaltend bezüglich der Euklidischen
Abbildung!bezüglich der Euklidischen Norm}, falls gilt: Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm},
falls gilt:
\[ \[
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x}, d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
\vec{y}^n. \vec{y}^n.
@ -86,8 +87,8 @@ Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
Abbildungen. Abbildungen.
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen] \begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend bezüglich Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend
der Euklidischen Norm. Dann gilt Folgendes. bezüglich der Euklidischen Norm. Dann gilt Folgendes.
\begin{enumerate} \begin{enumerate}
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv. \item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
@ -101,20 +102,20 @@ Abbildungen.
\end{enumerate} \end{enumerate}
\end{lem} \end{lem}
\begin{proof} \begin{proof}
Wir beweisen die Teilaussage $φ$ ist injektiv“ von \ref{il:5-2-4-1}: Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) = angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit
φ(\vec{v}_2)$. Dann ist $φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist
\[ \[
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0. d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
\] \]
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage $φ$ Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$
ist surjektiv beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe. \ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
\end{proof} \end{proof}
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5} \begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine
Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
\end{kor} \end{kor}
@ -130,16 +131,16 @@ enorm.
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
Abbildung Abbildung
\[ \[
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} .
\] \]
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$. wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
\end{beobachtung} \end{beobachtung}
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“. Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}% \begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}
Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$ Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands}\index{Transformation des bezüglich des Euklidischen Abstands}\index{Transformation des
$^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine $^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
@ -161,10 +162,10 @@ Transformation eine Gruppe bilden.
\end{defn} \end{defn}
\section{Das Standardskalarprodukt auf dem $^n$} \section{Das Standard-Skalarprodukt auf dem $^n$}
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
Hilfsmittel dabei ist das Standardskalarprodukt auf dem $^n$. Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $^n$.
\begin{defn}[Standardskalarprodukt $^n$] \begin{defn}[Standardskalarprodukt $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung Es sei $n ∈ $ eine Zahl. Die Abbildung
@ -196,30 +197,30 @@ Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
Eigenschaft einmal selbst? Eigenschaft einmal selbst?
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts] \begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
Es sei $n ∈ $ eine Zahl. Dann gilt Folgendes. Es sei $n ∈ $ eine Zahl. Dann gilt folgendes:
\begin{description} \begin{description}
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und \item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt $\vec{z}^n$ und alle $λ ∈ $ gilt
\[ \[
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z} \langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
\rangle + λ·\langle \vec{y}, \vec{z} \rangle. \rangle + λ·\langle \vec{y}, \vec{z} \rangle
\] \]
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und \item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt $\vec{z}^n$ und alle $λ ∈ $ gilt
\[ \[
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y} \langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
\rangle + λ·\langle \vec{x}, \vec{z} \rangle. \rangle + λ·\langle \vec{x}, \vec{z} \rangle
\] \]
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt $\langle \vec{x}, \item[Positive Definitheit] Für alle $\vec{x}^n$ gilt
\vec{x} \rangle ≥ 0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0 ⇔ $\langle \vec{x}, \vec{x} \rangle0$. Außerdem gilt
\vec{x} = \vec{0}$. $\langle \vec{x}, \vec{x} \rangle = 0\vec{x} = \vec{0}$.
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt \item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$. $\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
\item[Satz des Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$ \item[Satz von Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
und $\vec{y}^n$ gilt und $\vec{y}^n$ gilt
\[ \[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y} \| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
@ -241,9 +242,9 @@ scheint.
\begin{defn}[Orthonormalbasis] \begin{defn}[Orthonormalbasis]
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i, Freunden: ONB), falls für alle $i, j$ gilt, dass
\vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das
bezeichnet. Kronecker-Delta bezeichnet.
\end{defn} \end{defn}
\begin{bsp} \begin{bsp}
@ -295,12 +296,12 @@ Eine Menge, wie wir sofort sehen werden.
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\ &= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\ &= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\ &= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.} &= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras}
\end{align*} \end{align*}
Damit ist das Lemma bewiesen. Damit ist das Lemma bewiesen.
\end{proof} \end{proof}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}% \begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
@ -314,9 +315,9 @@ Eine Menge, wie wir sofort sehen werden.
\section{Beschreibung der orthogonalen Transformationen} \section{Beschreibung der orthogonalen Transformationen}
\label{sec:5-5} \label{sec:5-5}
Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden Abbildungen) Transformationen des $^n$ (und damit auch die abstandserhaltenden
vollständig beschreiben. Abbildungen) vollständig beschreiben.
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1} \begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
@ -336,7 +337,7 @@ vollständig beschreiben.
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\ η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\ &= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\ &= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\ &= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\ &= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\ &= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
&= η_j(\vec{x}) + λ·η_j(\vec{y}). &= η_j(\vec{x}) + λ·η_j(\vec{y}).
@ -373,8 +374,8 @@ keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}. \emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
\end{defn} \end{defn}
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit orthogonale Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale
Gruppe zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3} Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form. überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form.
% !TEX root = LineareAlgebra2 % !TEX root = LineareAlgebra2

View File

@ -8,26 +8,26 @@
\section{Bilinearformen und Skalarprodukte} \section{Bilinearformen und Skalarprodukte}
\label{sec:skalar} \label{sec:skalar}
\sideremark{Vorlesung 8}Der Name „Standardskalarprodukt“ sagt es schon: Es gibt \sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es
noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es, Skalarprodukte gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es,
(und später auch Hermitesche Produkte) ganz allgemein einzuführen und zu Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen
diskutieren. Hier kommen alle relevanten Definitionen. und zu diskutieren. Hier kommen alle relevanten Definitionen.
\begin{defn}[Bilinearformen]\label{def:6-1-1} \begin{defn}[Bilinearformen]\label{def:6-1-1}
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
$b: VV → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder $b: V V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt. \emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
\begin{description} \begin{description}
\item[Linearität in der ersten Komponente] Für alle $\vec{x}, \vec{y}, \vec{z} \item[Linearität in der ersten Komponente] Für alle
∈ V $ und für alle $λ ∈ k$ gilt $\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt
\[ \[
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) + b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
λ·b(\vec{y}, \vec{z}). λ·b(\vec{y}, \vec{z}).
\] \]
\item[Linearität in der zweiten Komponente] Für alle $\vec{x}, \vec{y}, \item[Linearität in der zweiten Komponente] Für alle
\vec{z} ∈ V$ und für alle $λ ∈ k$ gilt $\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\[ \[
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) + b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
λ·b(\vec{x}, \vec{z}) . λ·b(\vec{x}, \vec{z}) .
@ -35,45 +35,47 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\end{description} \end{description}
\end{defn} \end{defn}
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}% \begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
Verknüpfungen einen $k$-Vektorraum. Verknüpfungen einen $k$-Vektorraum.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}% \begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige $nn$-Matrix $B$. Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige
Dann ist die Abbildung $n n$-Matrix $B$. Dann ist die Abbildung
\[ \[
b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦ b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\vec{w} \vec{v}^{\:t}·B·\vec{w}
\] \]
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich bin nicht bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich
mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder $^t•$ geschrieben habe. bin nicht mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder
Beim Tippen schaut $^t$ viel besser aus.}. Beachte dazu, dass $\vec{w}$ und $^t•$ geschrieben habe. Beim Tippen schaut $^t$ viel besser
$\vec{w}$ Spaltenvektoren sind, und dass $\vec{v}^t$ ein Zeilenvektor ist. aus.}. Beachte dazu, dass $\vec{w}$ und $\vec{w}$ Spaltenvektoren sind,
Das Produkt von einem Zeilenvektor mit einem Spaltenvektor ist eine $1 und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor
1$-Matrix; die Definition von $b$ ist so zu verstehen, dass wir $1 mit einem Spaltenvektor ist eine $1 1$-Matrix; die Definition von $b$
1$-Matrizen mit den Skalaren identifizieren. ist so zu verstehen, dass wir $1 1$-Matrizen mit den Skalaren
identifizieren.
\end{bsp} \end{bsp}
\begin{defn}[Symmetrische Bilinearform] \begin{defn}[Symmetrische Bilinearform]
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform $b : VV → k$ Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform
heißt \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $b : V V → k$ heißt
$\vec{x}$, $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$,
\vec{x})$ gilt. $\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$
gilt.
\end{defn} \end{defn}
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}% \begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen. Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}% \begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}
Erinnern Sie sich an die Rechenregeln für „transponieren“ und „Matrixprodukt“. Erinnern Sie sich an die Rechenregeln für ``transponieren'' und
Wenn eine $nn$-Matrix $B$ die Gleichung $B^t=B$ erfüllt, dann gilt für alle ``Matrixprodukt''. Wenn eine $n n$-Matrix $B$ die Gleichung $B^t=B$
Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\[ \[
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} = \Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} =
\vec{w}^{\:t}·B^\vec{v}. \vec{w}^{\:t}·B^\vec{v}.
@ -84,21 +86,21 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}. \emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
\end{bsp} \end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}% \begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}
Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung $b(\vec{x}, \vec{x}) semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung
≥ 0$ gilt. Nenne $b$ \emph{positiv definit}\index{Bilinearform!positiv $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{positiv definit} falls zusätzlich für alle $\vec{x} ∈ V$ gilt: definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$. $b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
\end{defn} \end{defn}
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$] \begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$]
Die Begriffe „positiv semidefinit“ und „positiv definit“ sind nur für $k = $ Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für
und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei $k = $ und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei anderen Körpern (etwa $k = $) ist
anderen Körpern (etwa $k = $) ist gar nicht klar, was die Aussage gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x})0$'' bedeuten soll.
$b(\vec{x}, \vec{x})0$“ bedeuten soll.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum] \begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
@ -122,10 +124,10 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\end{pmatrix}, \quad \end{pmatrix}, \quad
\begin{pmatrix} \begin{pmatrix}
π & -e \\ \frac{-256}{257} & 2 π & -e \\ \frac{-256}{257} & 2
\end{pmatrix}. \end{pmatrix}
\] \]
Die entsprechenden Bilinearformen sind „nicht positiv semidefinit“, „positiv Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'',
semidefinit“, „positiv definit“ und … ? ``positiv semidefinit'', ``positiv definit'' und … ?
\end{bsp} \end{bsp}
\begin{defn}[Skalarprodukt auf reellem Vektorraum] \begin{defn}[Skalarprodukt auf reellem Vektorraum]
@ -136,17 +138,17 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\begin{bsp}[Standardskalarprodukt, Einschränkung] \begin{bsp}[Standardskalarprodukt, Einschränkung]
Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein
reeller Vektorraum und $\langle •, • \rangle$ sei ein Skalarprodukt. Wenn $W reeller Vektorraum und $\langle •, • \rangle$ sei ein
⊂ V$ ein Untervektorraum ist, dann ist $\langle •, • \rangle|_{W W}$ wieder Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist
ein Skalarprodukt. $\langle •, • \rangle|_{W W}$ wieder ein Skalarprodukt.
\end{bsp} \end{bsp}
\begin{bsp}[Integration]\label{bsp:Integration}% \begin{bsp}[Integration]\label{bsp:Integration}
Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie
in der Vorlesung „Analysis 1“ diskutiert. Die Abbildung in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung
\[ \[
\langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt \langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt.
\] \]
ist ein Skalarprodukt. ist ein Skalarprodukt.
\end{bsp} \end{bsp}
@ -154,46 +156,46 @@ diskutieren. Hier kommen alle relevanten Definitionen.
\subsection{Beschreibung von Bilinearformen durch Matrizen} \subsection{Beschreibung von Bilinearformen durch Matrizen}
Die Überschrift sagt schon, worum es geht: Wir wollen in diesem Abschnitt Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen. Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung Lineare Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare
Algebra I jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: „Ja!“ wir das mit Bilinearformen? Kurz gesagt: ``Ja!''
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
von Objekten („Lineare Abbildung“, „Bilinearformen“), die gar nichts miteinander von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts
zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen beschreiben. miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen
Das gibt es im Leben öfter. beschreiben. Das gibt es im Leben öfter.
\begin{quote} \begin{quote}
„Velociraptoren“ sind etwas ganz anderes als „romantische Gefühle“, auch wenn ``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch
beide Menschen verzehren. Dennoch lassen sich sowohl „Velociraptoren“ als wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren''
auch „romantische Gefühle“ recht gut durch Bytestrings beschreiben (vergleiche als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben
etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und (vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}). \href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
\end{quote} \end{quote}
Wir betrachten die folgende Situation. Wir betrachten die folgende Situation.
\begin{situation}\label{sit:6-3-1}% \begin{situation}\label{sit:6-3-1}
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum, Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$. Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
\end{situation} \end{situation}
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}% \begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : VV → k$ gegeben. In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V V → k$
Dann betrachte die $nn$-Matrix gegeben. Dann betrachte die $nn$-Matrix
\[ \[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n} \Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
\] \]
\end{konstruktion} \end{konstruktion}
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}% \begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann betrachte
betrachte die Bilinearform die Bilinearform
\[ \[
s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦ s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·φ_B(\vec{w}) φ_B(\vec{v})^t·A·φ_B(\vec{w})
\] \]
\end{konstruktion} \end{konstruktion}
@ -208,9 +210,9 @@ Wir betrachten die folgende Situation.
\end{tikzcd} \end{tikzcd}
\] \]
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
es genau eine Bilinearform $b$, sodass für alle $i,j$ gilt, dass $b(\vec{v}_i, es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass
\vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon, als es darum $b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon,
ging, jeder linearen Abbildung eine Matrix zuzuordnen. als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen.
\end{aufgabe} \end{aufgabe}
\begin{beobachtung} \begin{beobachtung}
@ -219,8 +221,8 @@ Wir betrachten die folgende Situation.
symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der
Bilinearformen endlich-dimensional sind. Genauer: Bilinearformen endlich-dimensional sind. Genauer:
\begin{align*} \begin{align*}
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$nn$-Matrizen}) = n² \\ \dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n n$-Matrizen}) = n² \\
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$nn$-Matrizen}) = \frac{n(n+1)}{2} \dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n n$-Matrizen}) = \frac{n(n+1)}{2}
\end{align*} \end{align*}
\end{beobachtung} \end{beobachtung}
@ -229,7 +231,7 @@ Wir betrachten die folgende Situation.
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
Bilinearform Bilinearform
\[ \[
b : VV → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt. b : V V → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt
\] \]
Dann ist Dann ist
\[ \[
@ -246,8 +248,8 @@ Wir betrachten die folgende Situation.
\subsection{Basiswechsel} \subsection{Basiswechsel}
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$, Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und $B_2$. eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und
Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$? $B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{erinnerung} \begin{erinnerung}
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
@ -265,9 +267,9 @@ Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen] \begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Bilinearform $b : VV → k$ und zwei angeordnete Basen, $B_1$ und $V$, eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_ $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei
:= \Mat_{B_{}}(b)$. Dann ist $M_{} := \Mat_{B_{}}(b)$. Dann ist
\[ \[
M_1 = S^t·M_2·S. M_1 = S^t·M_2·S.
\] \]
@ -280,27 +282,27 @@ Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern, Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
für alle, die immer noch verwirrt sind: Die Basiswechsel-Formel für für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$ Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
nur die Transponierte $S^t$ ausrechnen muss. nur die Transponierte $S^t$ ausrechnen muss.
\section{Sesquilinearformen und Hermitesche Produkte} \section{Sesquilinearformen und Hermitesche Produkte}
\sideremark{Vorlesung 9}So etwas Schönes wie ein Skalarprodukt möchte man \sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man
natürlich auch für komplexe Vektorräume haben, leider funktionieren die natürlich auch für komplexe Vektorräume haben, leider funktionieren die
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung: Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
man muss die Definition von „Bilinearität“ abändern, um sicherzustellen, dass man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
überraschend, dass man an der Definition von „bilinear“ dreht, und nicht an der überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an
Definition von „positiv definit“. Der praktische Erfolg der folgenden der Definition von ``positiv definit''. Der praktische Erfolg der folgenden
Definitionen gibt der Sache aber recht. Definitionen gibt der Sache aber recht.
\begin{defn}[Sesquilinearform]\label{def:6-2-1} Es sei $V$ ein Vektorraum über \begin{defn}[Sesquilinearform]\label{def:6-2-1}
den komplexen Zahlen. Eine Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb} \emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
ist eine Abbildung $b: VV → $, sodass Folgendes gilt. ist eine Abbildung $b: V V → $, so dass Folgendes gilt.
\begin{description} \begin{description}
\item[Linearität in der ersten Komponente] Für alle \item[Linearität in der ersten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ $ gilt $\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ $ gilt
@ -322,18 +324,18 @@ Definitionen gibt der Sache aber recht.
$x+i·y ↦ x - i·y$. $x+i·y ↦ x - i·y$.
\end{defn} \end{defn}
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}% \begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen bildet einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen
mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie, dass jeder bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie,
komplexe Vektorraum immer auch ein reeller Vektorraum ist, also bildet die dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also
Menge der Sesquilinearformen einen reellen Vektorraum. bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}% \begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige $nn$-Matrix $B$. Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige
Dann ist die Abbildung $n n$-Matrix $B$. Dann ist die Abbildung
\[ \[
b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦ b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\overline{\vec{w}} \vec{v}^{\:t}·B·\overline{\vec{w}}
@ -358,24 +360,24 @@ Definitionen gibt der Sache aber recht.
\end{bsp} \end{bsp}
\begin{defn}[Hermitesche Sesquilinearform] \begin{defn}[Hermitesche Sesquilinearform]
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform $b : VV → Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform
$ heißt $b : V V → $ heißt
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles \emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
Paris) war ein französischer Paris) war ein französischer
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$, Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung $b(\vec{x},\vec{y}) = $\vec{y} ∈ V$ die Gleichung
\overline{b(\vec{y},\vec{x})}$ gilt. $b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt.
\end{defn} \end{defn}
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}% \begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}
Es sei $b : VV → $ eine Hermitesche Sesquilinearform. Dann gilt Es sei $b : V V → $ eine Hermitesche Sesquilinearform. Dann gilt
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
imaginäre Anteil verschwinden muss. imaginäre Anteil verschwinden muss.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}% \begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
@ -384,12 +386,12 @@ Definitionen gibt der Sache aber recht.
Vektorraumes der Sesquilinearformen bildet. Vektorraumes der Sesquilinearformen bildet.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}% \begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe: Wieso?}. entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe:
Die Menge der Hermiteschen Sesquilinearformen ist deshalb \emph{kein} Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb
komplexer Vektorraum. \emph{kein} komplexer Vektorraum.
\end{beobachtung} \end{beobachtung}
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen] \begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
@ -398,23 +400,23 @@ Definitionen gibt der Sache aber recht.
ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder
die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft
nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu
tun? tun?
\end{bsp} \end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}% \begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Hermitesche Sesquilinearform!positiv semidefinit}\index{Hermitesche Sesquilinearform!positiv
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt: $b(\vec{x}, \vec{x}) = 0\vec{x} = zusätzlich für alle $\vec{x} ∈ V$ gilt:
\vec{0}$. $b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
\end{defn} \end{defn}
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}% \begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}
Es sei $V$ ein komplexer Vektorraum. Ein Es sei $V$ ein komplexer Vektorraum. Ein
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
positiv definite, Hermitesche Sesquilinearform. positiv definite, Hermitesche Sesquilinearform.
@ -452,8 +454,8 @@ Definitionen gibt der Sache aber recht.
Sei $V = \cC([0,1];)$ der komplexe Vektorraum der komplexwertigen stetigen Sei $V = \cC([0,1];)$ der komplexe Vektorraum der komplexwertigen stetigen
Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung
\[ \[
\langle •, • \rangle : VV → , \quad (f, g) ↦ \int¹_0 \langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0
f(t)·\overline{g(t)} dt f(t)·\overline{g(t)} dt.
\] \]
ist ein Skalarprodukt. ist ein Skalarprodukt.
\end{bsp} \end{bsp}
@ -486,11 +488,11 @@ Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
gehen, geben wir nur die Ergebnisse an. gehen, geben wir nur die Ergebnisse an.
\begin{konstruktion}[Sesquilinearformen zu Matrizen] \begin{konstruktion}[Sesquilinearformen zu Matrizen]
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis $B Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis
:= \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
bezeichnen wir wie immer mit $φ_B : V → k^n$. bezeichnen wir wie immer mit $φ_B : V → k^n$.
\begin{itemize} \begin{itemize}
\item Gegeben eine Sesquilinearform $b : VV → k$, dann betrachte die \item Gegeben eine Sesquilinearform $b : V V → k$, dann betrachte die
$nn$-Matrix $nn$-Matrix
\[ \[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr) \Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)
@ -499,7 +501,7 @@ gehen, geben wir nur die Ergebnisse an.
\item Gegeben eine $nn$-Matrix $A$ gegeben. Dann betrachte die \item Gegeben eine $nn$-Matrix $A$ gegeben. Dann betrachte die
Sesquilinearlinearform Sesquilinearlinearform
\[ \[
s_B(A) : VV → k,\quad (\vec{v}, \vec{w}) ↦ s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})} φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})}
\] \]
\end{itemize} \end{itemize}
@ -512,12 +514,12 @@ $$-Vektorräumen erhalten,
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"] \text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd} \end{tikzcd}
\] \]
welche die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren. die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
Außerdem gilt folgender Satz. Außerdem gilt folgender Satz.
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen] \begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Sesquilinearform $b : VV → k$ und zwei angeordnete Basen, $V$, eine Sesquilinearform $b : V V → k$ und zwei angeordnete Basen,
$B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{} := \Mat_{B_{}}(b)$. Dann $B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{} := \Mat_{B_{}}(b)$. Dann
ist ist
\[ \[