Add files

This commit is contained in:
Stefan Kebekus 2025-04-07 13:07:38 +02:00
commit 0ebca45962
26 changed files with 17449 additions and 0 deletions

19
.gitignore vendored Normal file
View File

@ -0,0 +1,19 @@
public
KommutativeAlgebra.aux
KommutativeAlgebra.bbl
KommutativeAlgebra.blg
KommutativeAlgebra.brf
KommutativeAlgebra.fdb_latexmk
KommutativeAlgebra.fls
KommutativeAlgebra.idx
KommutativeAlgebra.ilg
KommutativeAlgebra.ind
KommutativeAlgebra.loa
KommutativeAlgebra.lof
KommutativeAlgebra.log
KommutativeAlgebra.lot
KommutativeAlgebra.out
KommutativeAlgebra.pdf
KommutativeAlgebra.synctex(busy)
KommutativeAlgebra.synctex.gz
KommutativeAlgebra.toc

198
01-Wiederholung.tex Normal file
View File

@ -0,0 +1,198 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 01-Wiederholung.tex 22 2020-05-12 14:33:32Z kebekus $}
\chapter{Wiederholung}
\sideremark{Revision \svnfilerev\\ \svnfileday.\svnfilemonth.\svnfileyear}
\section{Endomorphismen, Eigenwerte, Eigenvektoren}
\sideremark{Vorlesung 1}Am Ende der Vorlesung ``Lineare Algebra I'' hatten wir
folgende Situation betrachtet.
\begin{situation}\label{sit:LA1}
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler Vektorraum und es
sei $f ∈ \End(V)$ ein Endomorphismus des Vektorraumes $V$, also eine
$k$-lineare Abbildung $f : V → V$.
\end{situation}
Das Ziel war, eine angeordnete Basis $B$ von $V$ zu finden, so dass die Matrix
$\Mat^B_B(f)$ möglichst einfach wird. Am besten wäre es, wenn die Matrix
Diagonalgestalt hat.
\begin{defn}[Diagonalisierbarer Endomorphismus]
In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine
Basis $B$ von $V$ gibt, so dass $\Mat^B_B$ eine Diagonalmatrix ist.
\end{defn}
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
\begin{defn}[Diagonalisierbare Matrix]
Es sei $k$ ein Körper und $n ∈ $ eine Zahl. Eine $n n$-Matrix $A$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ Gl_n(k)$, so dass $SAS^{-1}$ eine
Diagonalmatrix ist.
\end{defn}
Die zentralen Begriffe in diesem Zusammenhang waren ``Eigenwert'',
``Eigenvektor'' und ``Eigenraum''.
\begin{defn}[Eigenwert]
Situation wie in \ref{sit:LA1}. Ein Skalar $λ ∈ k$ heißt \emph{Eigenwert von
$f$}\index{Eigenwert}, wenn es einen Vektor $\vec{v} ∈ V \{\vec{0}\}$
gibt, so dass $f(\vec{v}) = λ\vec{v}$ ist.
\end{defn}
\begin{defn}[Eigenraum]
Situation wie in \ref{sit:LA1}. Gegeben ein Skalar $λ ∈ k$, dann nenne
$$
V_{λ} := \{ \vec{v} ∈ V \:|\: f(\vec{v}) = λ \vec{v} \}
$$
den \emph{Eigenraum von $f$ zum Eigenwert $λ$}\index{Eigenraum}.
\end{defn}
\begin{defn}[Eigenvektor]
Situation wie in \ref{sit:LA1}. Ein Vektor $\vec{v} ∈ V \{\vec{0}\}$ heißt
\emph{Eigenvektor von $f$}\index{Eigenvektor}, wenn es ein Skalar $λ ∈ k$
gibt, so dass $f(\vec{v}) = λ\vec{v}$ ist.
\end{defn}
Ich erinnere daran, dass der Eigenraum immer ein Untervektorraum von $V$ ist.
In der Vorlesung hatten wir ein Verfahren betrachtet, um die Eigenwerte
auszurechnen: die Eigenwerte von $f$ sind genau die Nullstellen des
charakteristischen Polynoms
\[
χ_f(t) := \det \bigl( f - t \Id_V \bigr).
\]
\textbf{Achtung!} Die Definition des charakteristischen Polynoms ist in der
Literatur nicht ganz einheitlich. Manche Autoren bezeichenen auch das Polynom
$\det \bigl( t \Id_V - f \bigr)$ als charakteristisches Polynom. In der Praxis
macht das keinen Unterschied, weil sich die beiden Polynome höchstens um ein
Vorzeichen unterscheiden und wir sowieso nur an den Nullstellen interessiert
sind. Ich werde versuchen, durchgehend die Konvention
$χ_f(t) := \det \bigl( f - t \Id_V \bigr)$ zu verwenden\footnote{Wie ich mich
kenne, wird das aber nicht immer gelingen. Bitte informieren Sie mich, wenn
Sie irgendwo einen Vorzeichenfehler sehen. Ich wurde gefragt, welche
Konvention in Übungsaufgaben und in der Klausur verwendet werden sollen. Der
Einheitlichkeit und Einfachheit halber wäre es schön, wenn alle die oben
angegebene Konvention nutzen, aber eigentlich ist mir die Konvention
egal. Hauptsache, ihre Lösung ist richtig und wir können verstehen, was Sie
machen! Melden Sie sich, wenn Ihnen irgendwo Punkte abgezogen wurden.}.
\begin{erinnerung}[Komplexe Polynome zerfallen in Linearfaktoren]
Für $k = $ gilt: Jedes Polynom hat eine Nullstelle. Insbesondere gilt, dass
ich jedes Polynom über $$ als Produkt von linearen Polynomen schreiben kann.
Zum Beispiel ist
$$
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
$$
Also ist $\deg(g) = 6$ und die Nullstellen von g sind $i$, $2$ und $3$
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
\end{erinnerung}
\section{Algebraische und geometrische Vielfachheit}
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun ein Skalar $λ ∈ k$ gegeben
habe, kann ich zwei Zahlen betrachten, nämlich
\begin{itemize}
\item Die \emph{algebraische Vielfachheit von
$λ$}\index{Vielfachheit!algebraische} ist die Vielfachheit von $λ$ als
Nullstelle des charakteristischen Polynoms.
\item Die \emph{geometrische Vielfachheit von
$λ$}\index{Vielfachheit!geometrische} ist die Dimension des Vektorraumes
$V_{λ}$.
\end{itemize}
\begin{bsp}\label{bsp:1.1}
Es sei $k = $, es sei $V = ℂ²$ und es sei $f : V → V$ gegeben durch die
Matrix
$$
\begin{pmatrix}
2 & 3 \\ 0 & 2
\end{pmatrix}
$$
Dann ist $χ_f(t) = (2 - t)²$. Wir betrachten das Skalar $λ = 2$. Dies ist
eine doppelte Nullstelle des charakteristischen Polynoms und die algebraische
Vielfachheit von $λ$ ist zwei. Auf der anderen Seite ist
$$
V_2 = · \begin{pmatrix} 1 \\ 0 \end{pmatrix}
$$
Also ist die geometrische Vielfachheit von $λ$ gleich eins.
\end{bsp}
\begin{prop}[Vergleich von alg.\ und geom.~Vielfachheit]
In Situation~\ref{sit:LA1} sei $λ ∈ k$ ein Skalar, dann gilt:
$$
\text{algebraische Vielfachheit }\text{ geometrische Vielfachheit}
$$
\end{prop}
\begin{proof}
Sei ein Skalar $λ$ gegeben. Falls geometrische Vielfachheit von $λ$ gleich
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
größer als Null. Das bedeutet: es gibt eine lineare unabhängige (angeordnete)
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
Matrix von der Form
$$
\Mat^B_B (f) = \left(
\begin{array}{lll|l}
λ & & & \\
& \ddots & & * \\
& & λ \\
\hline
& 0 & & *
\end{array}\right)
$$
Als Konsequenz ergibt sich, dass das charakteristische Polynom $χ_f$ von $f$
die folgende Form hat,
$$
χ_f (t) = (t - λ)^d · \text{(weiteres, unbekanntes Polynom)}
$$
Also ist die algebraische Vielfachheit von $λ$ ist mindestens gleich $d$.
\end{proof}
\section{Diagonalisierbarkeit}
Wie hängen Diagonalisierbarkeit und die algebraischen/geometrischen
Vielfachheiten zusammen? Der folgende Satz gibt eine erste Antwort, zumindest
über den komplexen Zahlen. Im folgenden Kapitel werden wir eine bessere Antwort
kennen lernen.
\begin{satz}[Diagonalisierbarkeit und Vielfachheiten]\label{satz:1.1}
In Situation~\ref{sit:LA1} sind die folgenden Aussagen äquivalent.
\begin{enumerate}
\item Der Endormorphismus $f$ ist diagonalisierbar.
\item Das charakteristische Polynom $χ_f(t)$ zerfällt in Linearfaktoren und
für jeden Eigenwert $λ$ stimmen geometrische und algebraische Vielfachheit
überein. \qed
\end{enumerate}
\end{satz}
Als direkte Anwendung von Satz~\ref{satz:1.1} ergibt sich, dass die Matrix aus
Beispiel~\ref{bsp:1.1} nicht diagonalisierbar ist. Der Beweis von
Satz~\ref{satz:1.1} verwendet folgendes Lemma.
\begin{lemma}\label{lem:1.1}
In Situation~\ref{sit:LA1} seien $λ_1, …, λ_d$ unterschiedliche Eigenwerte von
$f$ und $\vec{v}_1, …, \vec{v}_d$ seien zugehörige Eigenvektoren. Dann ist
die Menge $\{\vec{v}_1, …, \vec{v}_d \}$ linear unabhängig. \qed
\end{lemma}
Sie sollten versuchen, Satz~\ref{satz:1.1} und Lemma~\ref{lem:1.1} selbst zu
beweisen. Der Beweis von Lemma~\ref{lem:1.1} funktioniert mit Induktion nach
$d$. Die Auflösung finden Sie in \video{1-1} und \video{1-2}.
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

775
02-Jordan.tex Normal file
View File

@ -0,0 +1,775 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 02-Jordan.tex 49 2020-06-09 10:57:00Z kebekus $}
\chapter{Die Jordansche Normalform}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\label{chapt:Jordan}
\section{Einleitung}
\sideremark{Vorlesung 2}Wir hatten im letzten Kapitel ein Beispiel~\ref{bsp:1.1}
für einen Endomorphismus gesehen, der nicht diagonalisierbar ist. Aus der
Traum. In diesem Kapitel werden wir zeigen, dass es aber stets eine Basis gibt,
so dass die zugehörende Matrix eine besonders einfache Gestalt hat -- zumindest,
solange wir über den komplexen Zahlen arbeiten. Genauer gesagt: wir werden
zeigen, dass es eine Basis gibt, so dass die Matrix ``Jordansche Normalform''
hat\footnote{\href{https://de.wikipedia.org/wiki/Camille_Jordan}{Marie Ennemond
Camille Jordan}, genannt Camille Jordan, (* 5. Januar 1838 in Lyon; †
21. Januar 1922 in Paris) war ein französischer Mathematiker.}, also ``fast''
eine Diagonalmatrix ist.
Vielleicht schauen Sie auch einmal in den entsprechenden Eintrag in der
\href{https://de.wikipedia.org/wiki/Jordansche_Normalform}{Wikipedia}. Es gibt
auch eine Menge Videos auf
\href{https://www.youtube.com/results?search_query=jordansche+normalform}{YouTube}.
\begin{defn}[Jordanblock]
Es sei $k$ ein Körper, $λ ∈ k$ ein Körperelement und $n ∈ $ sei eine
Zahl. Der \emph{$(n n)$-Jordanblock mit Wert $λ$ auf der
Diagonalen}\index{Jordanblock} ist die $(n n)$-Matrix $A = (a_{ij})$
mit
$$
a_{ij} =
\begin{cases}
λ & \text{falls } j=i \\
1 & \text{falls } j=i+1 \\
0 & \text{sonst}
\end{cases}
$$
Der $(n n)$-Jordanblock mit Wert $λ$ auf der Diagonalen wird oft mit
$J(λ,n)$ bezeichnet.
\end{defn}
\begin{bsp}
Die folgenden Matrizen mit Werten in $$ sind Jordanblöcke.
$$
J(12, 1) =
\begin{pmatrix}
12
\end{pmatrix}, \quad
J(47,2) =
\begin{pmatrix}
47 & 1 \\
0 & 47
\end{pmatrix}, \quad
J(i,5) =
\begin{pmatrix}
i & 1 & 0 & 0 & 0 \\
0 & i & 1 & 0 & 0 \\
0 & 0 & i & 1 & 0 \\
0 & 0 & 0 & i & 1 \\
0 & 0 & 0 & 0 & i
\end{pmatrix}
$$
\end{bsp}
\begin{defn}[Jordansche Normalform]
Es sei $k$ ein Körper und $n ∈ $ sei eine Zahl. Eine $n n$-Matrix
$A = (a_{ij})$ hat \emph{Jordansche Normalform}\index{Jordansche Normalform},
falls $A$ Blockgestalt hat, wobei auf der Diagonalen Jordanblöcke stehen und
alle anderen Blöcke gleich Null sind.
\end{defn}
\begin{bsp}
Jeder Jordanblock hat Jordansche Normalform. Die folgenden Matrizen haben
Jordansche Normalform.
$$
J(12,1) =
\begin{pmatrix}
12
\end{pmatrix}, \quad
\begin{pmatrix}
J(12,1) & 0 \\
0 & J(47,2)
\end{pmatrix} =
\begin{pmatrix}
12 & 0 & 0 \\
0 & 47 & 1 \\
0 & 0 & 47
\end{pmatrix},
$$
$$
\begin{pmatrix}
J(5,2) & 0 & 0 \\
0 & J(7,1) & 0 \\
0 & 0 & J(i,5)
\end{pmatrix} =
\begin{pmatrix}
5 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 5 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 7 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & i & 1 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & i & 1 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & i & 1 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & i & 1 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 & i
\end{pmatrix}
$$
\end{bsp}
Das Ziel dieses Kapitels ist jetzt, den folgenden Satz zu beweisen.
\begin{satz}[Jordansche Normalform]\label{satz:JNF}
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und
es sei $f ∈ \End(V)$ ein Endormorphismus. Dann gibt es eine angeordnete Basis
$\mathcal{B}$ von $V$, so dass die darstellende Matrix $\Mat^B_B(f)$
Jordansche Normalform hat.
\end{satz}
\begin{notation}
Situation wie in Satz~\ref{satz:JNF}. Eine
\emph{Jordanbasis}\index{Jordanbasis} ist eine angeordnete Basis $\mathcal{B}$
von $V$, so dass die darstellende Matrix $\Mat^B_B(f)$ Jordansche Normalform
hat.
\end{notation}
Wir beweisen Satz~\ref{satz:JNF} nach einigen Vorbereitungen im
Abschnitt~\vref{ssec:pjnf}. Wir betrachten für den Rest des Kapitels meistens
die folgende Situation.
\begin{situation}\label{sit:2-1-6}
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen,
$n := \dim V$, und es sei $f ∈ \End(V)$ ein Endormorphismus.
\end{situation}
\section{Vorbereitung: Haupträume}
\label{sec:HR}
Warum die folgenden Definitionen? Schauen Sie sich \video{2-1} an.
\begin{defn}[Nilpotente Endomorphismen]\label{def:NEnd}
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
es sei $f ∈ \End(V)$. Nenne den Endomorphismus $f$
\emph{nilpotent}\index{nilpotent!Endomorphismus}, falls seine Zahl $m ∈ $
existiert, so dass $f^m = f ◦ ⋯ ◦ f$ die Nullabbildung ist. Die kleinste
solche Zahl $m$ heißt \emph{Nilpotenzindex von
$f$}\index{Nilpotenzindex!Endomorphismus}.
\end{defn}
\begin{defn}[Nilpotente Matrizen]
Es sei $k$ ein Körper, es sei $n ∈ $ eine Zahl und $A$ eine $(n n)$-Matrix
mit Werten in $k$. Nenne die Matrix $A$
\emph{nilpotent}\index{nilpotent!Matrix}, falls seine Zahl $m ∈ $ existiert,
so dass $A^m = A ⋯ A$ die Nullmatrix ist. Die kleinste solche Zahl $m$ heißt
\emph{Nilpotenzindex von $A$}\index{Nilpotenzindex!Matrix}.
\end{defn}
\begin{beobachtung}
In der Situation von Definition~\ref{def:NEnd} sei $B$ eine angeordnete Basis
und $m ∈ $ eine Zahl. Dann sind die folgenden Aussagen äquivalent.
\begin{itemize}
\item Der Endomorphismus $f$ ist nilpotent mit Nilpotenzindex $m$.
\item Die Matrix $\Mat^B_B(f)$ ist nilpotent mit Nilpotenzindex $m$.
\end{itemize}
\end{beobachtung}
\begin{beobachtung}
Matrizen, die ähnlich zu einer nilpotenten Matrix sind, sind selbst nilpotent.
Genauer: Sei $A$ eine $(n n)$-Matrix und sei $S ∈ Gl(n, k)$, so dass
$N := SAS^{-1}$ nilpotent ist mit Index $m$. Dann ist
$$
0 = N^m = SAS^{-1} · SAS^{-1} · ⋯ · SAS^{-1} = SA^mS^{-1}
$$
Also $A^m = S^{-1}·0·S = 0$.
\end{beobachtung}
\begin{bsp}
Überzeugen Sie sich durch eigene Rechnung von den folgenden Tatsachen.
\begin{enumerate}
\item Jordanblöcke sind genau dann nilpotent, wenn auf der Diagonalen die 0
steht. Genauer: $J(0, r)$ ist nilpotent von Index $r$.
\item Es sei $A$ eine $(n n)$-Matrix in oberer Dreiecksform mit 0en auf der
Diagonalen. Dann ist $A$ nilpotent.
\end{enumerate}
\end{bsp}
\begin{defn}[Hauptraum eines Endomorphismus]\label{def:2-2-6}
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
es sei $f ∈ \End(V)$. Gegeben $λ ∈ k$, dann betrachte
$$
\Hau_f(λ) := \bigcup_{n ∈ } \ker \Bigl( (f - λ · \Id_V )^n \Bigr)
$$
Man nennt dies den \emph{Hauptraum}\index{Hauptraum!Endomorphismus} oder
\emph{verallgemeinerten Eigenraum zum Eigenwert $λ$}%
\index{verallgemeinerter Eigenraum!Endomorphismus}.
\end{defn}
\begin{defn}[Hauptraum einer Matrix]\label{def:2-2-6b}
Es sei $k$ ein Körper, es sei $A$ eine $(n n)$-Matrix. Gegeben $λ ∈ k$,
dann betrachte
$$
\Hau_A(λ) := \bigcup_{n ∈ } \ker \Bigl( (A - λ · \Id_{n n} )^n
\Bigr),
$$
wobei $\Id_{n n}$ die Einheitsmatrix bezeichnet. Man nennt dies den
\emph{Hauptraum}\index{Hauptraum!Matrix} oder \emph{verallgemeinerten
Eigenraum zum Eigenwert $λ$}\index{verallgemeinerter Eigenraum!Matrix}.
\end{defn}
\begin{beobachtung}
In der Situation von Definition~\ref{def:2-2-6} sei ein Vektor $\vec{v} ∈ V$
gegeben. Falls es eine Zahl $n ∈ $ gibt, so dass
$(f - λ · \Id_V )^n(\vec{v}) = \vec{0}$ ist, dann ist auch
$(f - λ · \Id_V )^{n+1}(\vec{v}) = \vec{0}$. Also ist
$$
\ker(f - λ · \Id_V ) ⊆ \ker \Bigl( (f - λ · \Id_V )² \Bigr) ⊆ \ker \Bigl( (f -
λ · \Id_V )³ \Bigr) ⊆ ⋯
$$
Insbesondere folgt, dass $\Hau_f(λ)$ ein Untervektorraum von $V$ ist.
\end{beobachtung}
Haupträume und Eigenräume hängen eng zusammen. Die folgende Beobachtung
rechtfertigt den Namen ``verallgemeinerter Eigenraum''.
\begin{beobachtung}
In der Situation von Definition~\ref{def:2-2-6} gilt:
\begin{align*}
\text{$λ$ ist kein Eigenwert von $f$} &\ker(f - λ · \Id_V ) = \{ \vec{0} \} \\
& ⇔ (f - λ · \Id_V ) \text{ ist isomorph}\\
& ⇔ (f - λ · \Id_V )^n \text{ ist isomorph für alle $n$} \\
&\ker \Bigl( (f - λ · \Id_V )^n \Bigr) = \{ \vec{0} \} \text{ für alle $n$} \\
&\Hau_f(λ) = \{ \vec{0} \}
\end{align*}
\end{beobachtung}
Falls wir über den komplexen Zahlen arbeiten, ist der Zusammenhang von Hauptraum
und Eigenraum viel enger: der Hauptraum erklärt die geometrische Bedeutung der
``algebraischen Multiplizität''.
\begin{satz}[Geometrische Bedeutung der algebraischen Multiplizität]\label{satz:2-2-10}
In Situation~\ref{sit:2-1-6} sei $λ ∈ $ ein Eigenwert von $f$ mit
algebraischer Multiplizität $r$. Dann gilt Folgendes.
\begin{enumerate}
\item\label{il:2-2-10-1} Der Hauptraum ist gegeben als
$\Hau_f(λ) = \ker \bigl( (f - λ·\Id)^r \bigr)$.
\item Die Dimension des Hauptraumes ist $\dim \Hau_f(λ) = r$.
\item\label{il:2-2-10-3} Die Abbildung $f$ bildet den Hauptraum auf den
Hauptraum ab: $f \bigl(\Hau_f(λ) \bigr)\Hau_f(λ)$. Insbesondere liefert
die Einschränkung von $f$ einen Endomorphismus des Hauptraumes,
$f|_{\Hau_f(λ)}\End \bigl( \Hau_f(λ) \bigr)$.
\item Das charakteristische Polynom der Einschränkung ist
$χ_{f|_{\Hau_f(λ)}}(t) = ±(t - λ)^r$.
\item\label{il:2-2-10-5} Es ist $(f|_{\Hau_f(λ)} -λ · \Id_{\Hau_f(λ)})^r = 0$.
\end{enumerate}
\end{satz}
\begin{proof}
\video{2-2} beweist ein vorbereitendes Lemma. \sideremark{Vorlesung 3}Der
Beweis des Satzes wird dann in \video{3-1} beendet.
\end{proof}
\begin{kor}\label{kor:2-2-11}
In Situation~\ref{sit:2-1-6} seien $λ_1, …, λ_k ∈ $ die Eigenwerte von $f$
mit algebraischen Multiplizitäten $r_1, …, r_k$. Seien $W_1, …, W_k$ die
zugehörenden Haupträume. Dann ist
\[
V = \Hau_f(λ_1) ⊕ ⋯ ⊕ \Hau_f(λ_k).
\]
\end{kor}
\begin{proof}
\video{3-2} beweist ein vorbereitendes Lemma. Der Beweis des Korollares wird
dann in \video{3-3} beendet.
\end{proof}
\begin{kor}\label{kor:2-2-12}
In der Situation von Korollar~\ref{kor:2-2-11} sei
\begin{align*}
\vec{v}¹_1, …, \vec{v}¹_{r_1} & \quad \text{eine Basis von } W_1 \\
\vec{v}²_1, …, \vec{v}²_{r_2} & \quad \text{eine Basis von } W_2 \\
\\
\vec{v}^k_1, …, \vec{v}^k_{r_k} & \quad \text{eine Basis von } W_k
\end{align*}
Dann ist
$\mathcal{B} := \{\vec{v}¹_1, …, \vec{v}¹_{r_1}, \vec{v}²_1, …,
\vec{v}²_{r_2}, …, \vec{v}^k_1, …, \vec{v}^k_{r_k} \}$ eine (angeordnete)
Basis von $V$ und bezüglich dieser Basis ist die Matrix von $f$ von der Form
$$
\Mat^{\mathcal{B}}_{\mathcal{B}}(f) =
\begin{pmatrix}
A_1 & & & 0 \\
& A_2 & \\
& & \ddots \\
0 & & & A_k
\end{pmatrix}
$$
wobei für jeden Index $i$ gilt: $A_i$ ist quadratische Matrix der Größe
$r_i r_i$ und $A_i$ ist von der Form
$$
A_i = λ_\Id_{r_i} + N_i,
$$
wobei $\Id_{r_i}$ die Einheitsmatrix ist und $N_i$ eine nilpotente Matrix ist.
\end{kor}
\begin{proof}
Korollar~\ref{kor:2-2-11} sagt exakt, dass $\mathcal{B}$ eine Basis von $V$
ist. Die Blockgestalt von $\Mat^{\mathcal{B}}_{\mathcal{B}}(f)$ folgt aus
\ref{il:2-2-10-3}. Die Beschreibung
$A_i = λ_\Id_{r_i} + (\text{nilpotent})$ ist \ref{il:2-2-10-5}.
\end{proof}
\subsection{Diskussion: wo sind wir}
\label{ssec:dusk}
Ich erinnere daran, dass unser Ziel ist, den Satz~\ref{satz:JNF} über die
Jordansche Normalform zu zeigen. Die Korollare~\ref{kor:2-2-11} und
\ref{kor:2-2-12} vereinfachen das Problem massiv.
\begin{enumerate}
\item Um eine Basis zu finden, in der die Matrix von $f$ Jordansche Normalform
hat, genügt es, die Haupträume $W_i$ einzeln zu betrachten und Basen
$\vec{v}_1, …, \vec{v}_{r_i}$ von $W_i$ zu betrachten, so dass die
Matrizen $A_i$ der eingeschränkten Abbildungen $f|_{W_i} : W_i → W_i$
Jordansche Normalform haben. Das Problem reduziert sich also auf den Fall, wo
den Endomorphismus $f$ nur einen einzigen Hauptraum besitzt.
\item Um eine Basis $\vec{v}_1, …, \vec{v}_{r_i}$ von $W_i$ zu finden, so
dass die Matrix $A_i$ der eingeschränkten Abbildungen $f|_{W_i} : W_i → W_i$
Jordansche Normalform hat, genügt es, eine Basis zu finden, so dass die Matrix
$N_i$ der nilpotenten Abbildung $f|_{W_i} - λ_\Id_{W_i}$ Jordansche
Normalform hat (… denn dann hat auch $A_i = λ_\Id_{r_i} + N_i$ Jordansche
Normalform)
\end{enumerate}
Zusammenfassend stellen wir fest: wir können die Aufgabe ``finde eine Basis, so
dass die Matrix von $f$ Jordansche Normalform hat'' lösen, sobald wir wissen,
wie wir die Aufgabe für nilpotente Endomorphismen lösen. Das machen wir im
nächsten Abschnitt.
\section{Klassifikation nilpotenter Matrizen}
\label{sec:class}
Wir betrachten das Problem ``finde eine Basis, so dass die Matrix von $f$
Jordansche Normalform hat'' jetzt also für nilpotente Endomorphismen.
\begin{situation}\label{sit:2-3-1}
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen,
$n := \dim V$, und es sei $f ∈ \End(V)$ ein nilpotenter Endomorphismus.
\end{situation}
Das Ziel ist jetzt, eine Basis $\mathcal{B}$ zu finden, so dass
\begin{equation}\label{eq:gh}
\Mat^{\mathcal{B}}_{\mathcal{B}}(f) =
\begin{pmatrix}
J(0, n_1) & & & 0 \\
& J(0, n_2) & \\
& & \ddots \\
0 & & & J(0, n_l)
\end{pmatrix}
\end{equation}
ist. Falls das geht, kann ich durch geeignete Anordnung der Basis auch gleich
erreichen, dass $n_1 ≥ n_2 ≥ ⋯ ≥ n_l$ ist.
\begin{beobachtung}\label{rem:2-3-2}
Wenn ich das Problem gelöst habe, dann ist $\sum_{i=1}^l n_i = \dim V$. In
Schlausprech sage ich ``$(n_1, n_2, …, n_l)$ ist eine
Partition\footnote{Erinnerung: ``Partition'' bedeutet: endliche, absteigende
Folge, so dass die Summer der Folgenglieder gleich $\dim V$
ist.}\index{Partition} von $\dim V$''. Die Matrix in \eqref{eq:gh} ist
natürlich eindeutig durch die Partition festgelegt. Überlegen Sie sich jetzt
folgendes: das Ziel (``finde eine Basis, so dass die Matrix von $f$ Jordansche
Normalform hat'') lässt sich deshalb auch so ausdrücken: wir suchen eine
Bijektion zwischen
\begin{itemize}
\item den Äquivalenzklassen nilpotenter Matrizen bezüglich der
Äquivalenzrelation ``ähnlich'', und
\item den Partitionen von $\dim V$.
\end{itemize}
\end{beobachtung}
\begin{prop}\label{prop:2-3-4}
In Situation~\ref{sit:2-3-1} schreibe $V^p := \ker (f^p)$. Dann gilt
folgendes.
\begin{enumerate}
\item Wir haben Inklusionen $\{\vec{0}\} ⊆ V¹ ⊆ V² ⊆ ⋯ ⊆ V^{\dim V} = V$
\item\label{il:2-3-4-2} Es gilt für alle $\vec{v} ∈ V$, dass
$\vec{v} ∈ V^p ⇔ f(\vec{v}) ∈ V^{p-1}$.
\item\label{il:2-3-4-3} Setze $V⁰ = \{\vec{0}\}$. Dann gilt alle Indizes $p > 1$: die Abbildung
$f$ induziert eine injektive Abbildung zwischen den Quotientenvektorräumen,
\[
\begin{tikzcd}
\overline{f} : \factor{V^p}{V^{p-1}} \ar[r] & \factor{V^{p-1}}{V^{p-2}}
\end{tikzcd}
\]
\end{enumerate}
\end{prop}
\begin{beobachtung}
Eigenschaft~\ref{il:2-3-4-2} zeigt insbesondere, dass
$f (V^p ) ⊆ V^{p-1}$ und $f^{-1}( V^{p-1}) = V^p$ ist.
\end{beobachtung}
\begin{proof}[Beweis von Proposition~\ref{prop:2-3-4}]
\video{3-4}. Als Übung sollten Sie versuchen, die Abbildung $\overline{f}$ auf
Repräsentantenniveau zu definieren. Was müssen Sie genau zeigen, um
Wohldefiniertheit zu erhalten. Wussten Sie schon, dass ich solche Fragen gern
in Klausur und mündlichen Prüfungen stelle?
\end{proof}
\begin{beobachtung}
In der Situation von Proposition~\ref{prop:2-3-4} definiere für jeden Index
$p$ die Zahl $m_p := \dim (V^p/V^{p-1})$. Überlegen Sie sich folgendes: die
Injektivität von $\overline{f}$ zeigt, dass die $m_p$ eine absteigende Folge
bilden. Die Dimensionsformel zeigt, dass $\sum_p m_p = \dim V$ ist. Also ist
$(m_1, m_2, …)$ eine Partition von $\dim V$.
\end{beobachtung}
Partitionen wurden schon in Beobachtung~\vref{rem:2-3-2} diskutiert. Jeder Leser
von Kriminalromanen erkennt sofort, dass das kein Zufall sein
kann.\sideremark{Vorlesung 4} Allerdings ist die Partition $(m_1, m_2, …)$ noch
nicht die, von der in Beobachtung~\ref{rem:2-3-2} die Rede war: wir müssen erst
zur ``dualen Partition'' übergehen.
\begin{defn}[Duale Partition]\label{def:dualePart}
\index{Partition!duale}\index{duale Partition}Es sein $n ∈ $ eine Zahl
und $P = (m_1, m_2, …)$ sei eine Partition von $n$. Gegeben einen Index $i$,
setze
\[
n_i := \# \{ j \:|\: m_j ≥ i \}.
\]
Nenne die Folge $P^* = (n_1, n_2, …)$ die \emph{zu $P$ duale Partition}.
\end{defn}
\begin{bsp}
Es sei $n = 19$ und $P = (5, 5, 4, 2, 2, 1)$. Dann ist $P^* = (6, 5, 3, 3, 2)$
wieder eine Partition der Zahl 19. Abbildung~\vref{fig:part} veranschaulicht
den Zusammenhang.
\end{bsp}
\begin{figure}[t]
\centering
\[
\begin{array}{c|cccccc}
6 & * & * & * & * & * & * \\
5 & * & * & * & * & * \\
3 & * & * & * \\
3 & * & * & * \\
2 & * & * \\
\hline
& 5 & 5 & 4 & 2 & 2 & 1
\end{array}
\]
\caption{Partition und duale Partition}
\label{fig:part}
\end{figure}
\begin{bemerkung}
In der Situation von Definition~\ref{def:dualePart}, überlegen Sie sich, dass
$P^*$ wieder eine Partition von $n$ ist. Überlegen Sie sich auch, dass für
jede Partition $P$ die Gleichheit $(P^*)^* = P$ gilt.
Abbildung~\ref{fig:part} kann ihnen dabei helfen.
\end{bemerkung}
\begin{prop}[Jordansche Normalform für nilpotente Endomorphismen]\label{prop:JNF}
In Situation~\ref{sit:2-3-1} schreibe $V^p := \ker (f^p)$ und
$m_p := \dim (V^p/V^{p-1})$. Es sei $P$ die Partition $P = (m_1, m_2, …)$ von
$\dim V$ und es sei $P^* := (n_1, n_2, …, n_l)$ die zu $P$ duale
Partition. Dann gibt es eine angeordnete Basis
$\mathcal{B} := \{\vec{v}_1, \vec{v}_2, … \}$ eine (angeordnete) Basis von
$V$, so dass die Matrix von $f$ die folgende Form hat,
\begin{equation}\label{eq:sdfg}
\Mat^{\mathcal{B}}_{\mathcal{B}}(f) =
\begin{pmatrix}
J(0, n_1) & & & 0 \\
& J(0, n_2) & \\
& & \ddots \\
0 & & & J(0, n_l)
\end{pmatrix}
\end{equation}
\end{prop}
\begin{proof}
Der Beweis ist von der Notation her ein wenig aufwändig. Daher werde ich den
Beweis nur im Spezialfall aufschreiben, wo die Partition $P$ die Form
$P = (5,5,4,2,2,1)$ hat. Der Beweis funktioniert natürlich für jede beliebige
Partition. Ich habe den Beweis in mehrere Schritte unterteilt.
\paragraph{Schritt 1, Konstruktion}
Es sei $q$ der Nilpotenzindex von $f$, so dass $V^q = V$ ist.
Proposition~\ref{prop:2-3-4} liefert eine Kette von Abbildungen
\[
\factor{V^q}{V^{q-1}} \xrightarrow{\overline{f}} \factor{V^{q-1}}{V^{q-2}} \xrightarrow{\overline{f}}\xrightarrow{\overline{f}} \factor{}{V⁰}
\]
Jetzt wählen wir (auf relativ komplizierte Weise) für jeden Index $p$ genau $m_p$ Vektoren
aus $V$ und konstruieren damit ein Diagramm von
Vektoren, das ausschaut wie die graphische Darstellung der Partition aus
Abbildung~\ref{fig:part}. Nämlich so:
\[
\begin{array}{c|cccccc}
n_1 & f⁵(\vec v⁶_1) & f⁴(\vec v⁶_1) & f³(\vec v⁶_1) & f²(\vec v⁶_1) & f(\vec v⁶_1) & \vec v⁶_1 \\
n_2 & f⁴(\vec v⁵_1) & f³(\vec v⁵_1) & f²(\vec v⁵_1) & f(\vec v⁵_1) & \vec v⁵_1 \\
n_3 & f²(\vec_1) & f(\vec_1) & \vec_1 \\
n_4 & f²(\vec_2) & f(\vec_2) & \vec_2 \\
n_5 & f(\vec_1) & \vec_1 \\
\hline
& m_1 & m_2 & m_3 & m_4 & m_5 & m_6
\end{array}
\]
Das Diagramm soll die Eigenschaft haben, dass für jeden Index $p$ Folgendes
gilt.
\begin{itemize}
\item Die Vektoren aus der $p$.ten Spalte kommen aus dem Vektorraum $V^p$.
\item Die Restklassen der Vektoren aus der $p$.ten Spalte bilden eine Basis
des Quotientenvektorraumes $\factor{V^p}{V^{p-1}}$.
\end{itemize}
Wir konstruieren das Diagram induktiv, Spalte für Spalte, wobei wir mit der
rechten Spalte beginnen.
\paragraph{Schritt 1.1, Induktionsstart, Konstruktion der rechten Spalte}
Wähle Vektoren $\vec v^q_1, …, \vec v^q_{m_q}$, so dass die Restklassen
$[\vec v^q_1], …, [\vec v^q_{m_q}]$ eine Basis des Quotientenraumes
$\factor{V^q}{V^{q-1}}$ bilden. Die Vektoren $\vec v^q_1, …, \vec v^q_{m_q}$
bilden die rechte Spalte. Nach Konstruktion bilden die Restklassen dieser
Vektoren eine Basis von $\factor{V^q}{V^{q-1}}$.
\paragraph{Schritt 1.2, Induktionsschritt, Konstruktion der $p$.ten Spalte}
Sei ein Index $p$ gegeben und sei die $(p+1)$.te Spalte schon konstruiert.
Die Vektoren aus der $(p+1)$.ten Spalte bezeichnen wir provisorisch mit
$\vec w_1, …, \vec w_a$. Beachte, dass die Abbildung
\[
\overline{f} : \factor{V^{p+1}}{V^p}\factor{V^p}{V^{p-1}}
\]
injektiv ist. Insbesondere sind die Bilder
$\overline{f}([w_1]), …, \overline{f}([w_a])$ linear unabhängige Vektoren des
Quotientenraumes $\factor{V^p}{V^{p-1}}$. Nach dem Basisergänzungssatz können
wir jetzt aber Vektoren $\vec v^p_1, …, \vec v^p_{m_p-a}$ aus $V$ finden, so dass
\[
\overline{f}([\vec w_1]), …, \overline{f}([\vec w_a]), [\vec v^p_1], …,
[\vec v^p_{m_p-a}]
\]
eine Basis des Quotientenraumes $\factor{V^p}{V^{p-1}}$ bilden. Schreibe
jetzt die Vektoren
\[
\overline{f}(\vec w_1), …, \overline{f}(\vec w_a), \vec v^p_1, …, \vec
v^p_{m_p-a}
\]
in die $p$.te Spalte des Diagramms. Nach Punkt~\ref{il:2-3-4-2} von
Proposition~\ref{prop:2-3-4} kommen alle diese Vektoren aus $V^p$.
\paragraph{Schritt 2, Lineare Unabhängigkeit}
Ich zeige in diesem Schritt folgende Aussage per Induktion: für jeden Index
$p$ gilt, dass die Menge aller Vektoren aus den Spalten $1$, …, $p$ eine Basis
des Vektorraumes $V^p$ ist.
\paragraph{Schritt 2.1, Induktionsstart, erste Spalte}
Per Konstruktion bilden die Restklassen der Einträge aus der ersten Spalte
eine Basis von $/V⁰$. Es ist aber $V⁰ = \{ 0 \}$.
\paragraph{Schritt 2.2, Induktionsschritt}
Sei ein Index $p>1$ gegeben. Induktionsannahme: die Vektoren
$\vec{α}_1, …, \vec{α}_a$ aus den ersten $(p-1)$ Spalten bilden eine Basis von
$V^{p-1}$. Seien $\vec{β}_1, …, \vec{β}_b$ die Vektoren der $p$.ten Spalte
und sei
\[
W^p := \langle \vec{α}_1, …, \vec{α}_a, \vec{β}_1, …, \vec{β}_b \rangle
⊂ V^p
\]
der von allen Vektoren gemeinsam aufgespannte Untervektorraum. Nach
Konstruktion ist die verkettete Abbildung $γ$
\[
W^p → V^p → \factor{V^p}{V^{p-1}}
\]
surjektiv, also ist nach der Dimensionsformel
\[
\dim W^p = \dim \factor{V^p}{V^{p-1}} + \dim \ker γ.
\]
Außerdem ist per Induktionannahme $V^{p-1} ⊆ W^p$, also
\[
\ker γ = V^{p-1} \quad \text{und} \quad \dim W^p = m_p + \dim V^{p-1} = \dim V^p.
\]
Also ist die Menge ein Erzeugendensystem. Weil sie aber genau
$(\dim V^p)$-viele Elemente enthält, muss es sich um eine Basis handeln.
\paragraph{Schritt 3, Ende des Beweises}
Nach Schritt 2 wissen wir, dass die Elemente des Diagrammes eine Basis von
$V^q=V$ bilden. Nummeriere die Elemente des Diagrammes jetzt wie folgt:
\[
\begin{array}{c|cccccc}
n_1 & \vec v_1 & \vec v_2 & \vec v_3 & \vec v_4 & \vec v_5 & \vec v_6 \\
n_2 & \vec v_{7} & \vec v_{8} & \vec v_9 & \vec v_{10} & \vec v_{11} \\
n_3 & \vec v_{12} & \vec v_{13} & \vec v_{14} \\
n_4 & \vec v_{15} & \vec v_{16} & \vec v_{17} \\
n_5 & \vec v_{18} & \vec v_{19} \\
\hline
& m_1 & m_2 & m_3 & m_4 & m_5 & m_6
\end{array}
\]
Dann ist klar, dass $f(\vec v_1) = \vec 0$, $f(\vec v_2) = \vec v_1$, …,
$f(\vec v_6) = \vec v_5$, $f(\vec v_7)=\vec 0$, … und insgesamt ergibt sich,
dass die Matrix von $f$ bezüglich dieser angeordneten Basis die Form
\eqref{eq:sdfg} hat. Damit ist Proposition~\ref{prop:JNF} bewiesen.
\end{proof}
Wie wir im Abschnitt~\vref{ssec:dusk} gesehen haben, beendet
Proposition~\ref{prop:JNF} den Beweis von Satz~\ref{satz:JNF}. Der nächste
Abschnitt fasst den Beweis noch einmal zusammen.
\section{Beweis von Satz~\ref*{satz:JNF} (``Jordansche Normalform'')}
\label{ssec:pjnf}
Es sei $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und
es sei $f ∈ \End(V)$ ein Endormorphismus. Weiter seien $λ_1, …, λ_k$ die
Eigenwerte von $f$. Nach Korollar~\ref{kor:2-2-11} schreiben wir
\begin{equation}\label{eq:dfgd}
V = \bigoplus_{i=1}^k \Hau_f(λ_i).
\end{equation}
Für jeden Index $i$ betrachte
\[
g_i := \bigl(f-λ_\Id_V\bigr)|_{\Hau_f(λ_i)} : \Hau_f(λ_i) → V
\]
Nach Punkt~\ref{il:2-2-10-3} von Satz~\ref{satz:2-2-10} wissen wir schon, dass
$g_i$ den Hauptraum $\Hau_f(λ_i)$ in den Hauptraum $\Hau_f(λ_i)$ abbildet. Wir
können $g_i$ also als Endomorphismus $g_i ∈ \End\bigl(\Hau_f(λ_i)\bigr)$
auffassen. Per Definition von ``Hauptraum'' ist jeder Endomorphismus $g_i$
nilpotent. Das erlaubt, Proposition~\ref{prop:JNF} anzuwenden; dies liefert uns
für jeden Index $i$ eine angeordnete Basis
\[
\mathcal{B}_i = \{ \vec{w}_{i,1}, …, \vec{w}_{i,r_i}\}.
\]
Wegen der Zerlegung \eqref{eq:dfgd} von $V$ als direkte Summe ist klar, dass
\[
\mathcal{B} := \{ \vec{w}_{1,1}, …, \vec{w}_{1,r_1}, \vec{w}_{2,1}, …,
\vec{w}_{2,r_2}, …, \vec{w}_{k,1}, …, \vec{w}_{k,r_k} \}
\]
eine angeordnete Basis von $V$ ist. Nach Wahl der Basis in
Proposition~\ref{prop:JNF} ist klar, dass es sich dabei um eine Jordanbasis
handelt. Damit ist Satz~\ref{satz:JNF} bewiesen. \qed
\section{Praktische Methode zur Berechnung}
Der Beweis von Satz~\ref{satz:JNF} ist so konkret, dass sich daraus eine
praktisch nützliche Methode zur Berechnung einer Jordanbasis ergibt. Es sei
also $V$ ein endlich-dimensionaler Vektorraum über den komplexen Zahlen, und es
sei $f ∈ \End(V)$ ein Endormorphismus. Um eine Jordanbasis zu finden, gehe wie
folgt vor.
\begin{enumerate}
\item Es seien $λ_1, …, λ_k$ die Eigenwerte von $f$ --- diese bestimmen wir,
indem wir die Nullstellen des charakteristischen Polynoms suchen.
\item Für jeden Index $i$ sei $r_i$ die algebraische Multiplizität des
Eigenwertes --- da wir über den komplexen Zahlen arbeiten, wissen wir schon,
dass das charakteristische Polynom von $f$ in Linearfaktoren zerfällt. Wir
müssen also schauen, wie oft der Term $t-λ_i$ das charakteristische Polynom
teilt.
\item Für jeden Index $i$ bestimme den Hauptraum $\Hau_f(λ_i)$ von $f$ zum
Eigenwert $λ_i$ --- Punkt~\ref{il:2-2-10-1} von Satz~\ref{satz:2-2-10}
(``Geometrische Bedeutung der algebraischen Multiplizität'') sagt, wie das
geht: der Hauptraum ist gegeben als
\[
\Hau_f(λ_i) = \ker \bigl( (f - λ_\Id)^{r_i} \bigr).
\]
Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$.
\item Für jeden Index $i$ betrachte $g_i := (f - λ·\Id_V)|_{W_i}$ --- wir wissen
schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
\item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und
die duale Partition
\[
P^*_i = (n_{i,1}, n_{i,2}, …, n_{i,l_i})
\]
dazu muss man mit LA1-Methoden die Dimensionen der Räume
$W^p_i := \ker(g^p_i)$ ausrechnen und dann die Dimensionen der
Quotientenvektorräume bestimmen. Um die duale Partition auszurechnen,
empfiehlt es sich, ein Bild wie in Abbildung~\ref{fig:part} zu malen.
\end{enumerate}
Falls Sie nur daran interessiert sind, wie die Jordansche Normalform des
Endomorphismus $f$ aussieht, sind sie jetzt fertig: die Jordansche Normalform
von $f$ hat Blockgestalt,
\[
\begin{pmatrix}
A_1 \\
& \ddots \\
& & A_k
\end{pmatrix}
\]
wobei jeder Block $A_i$ eine quadratische Matrix von der Form
\[
A_i =
\begin{pmatrix}
J(λ_i, n_{i,1}) & & & 0 \\
& J(λ_i, n_{i,2}) & \\
& & \ddots \\
0 & & & J(λ_i, n_{i,l_i})
\end{pmatrix}
\]
ist. In der Praxis ist man aber an diesem Punkt meist noch nicht fertig. Es
bleibt noch die Aufgabe, eine Jordanbasis konkret anzugeben.
\begin{enumerate}
\item Schauen Sie sich den Beweis von Proposition~\ref{prop:JNF} noch einmal an
und erkennen Sie, dass Sie die Schritte dort konkret nachvollziehen können.
Finden Sie so für jeden Index $i$ eine angeordnete Basis
$\mathcal{B}_i = \{ \vec{w}_{i,1}, …, \vec{w}_{i,r_i}\}$, so dass die Matrix
von $g_i$ die Form
\[
\begin{pmatrix}
J(0, n_{i,1}) & & & 0 \\
& J(0, n_{i,2}) & \\
& & \ddots \\
0 & & & J(0, n_{i,l_i})
\end{pmatrix}
\]
hat.
\end{enumerate}
Wie wir oben gesehen habe, ist
$\mathcal{B} := \{ \vec{w}_{1,1}, …, \vec{w}_{1,r_1}, \vec{w}_{2,1}, …,
\vec{w}_{2,r_2}, …, \vec{w}_{k,1}, …, \vec{w}_{k,r_k} \}$ dann eine
Jordanbasis.
\subsection{Beispiele}
Das Internet ist voll von Beispielen. Hier nennen wir nur einige, die wir bei
einer Suche sofort gefunden haben. Wenn Sie noch andere gute Beispiele finden,
melden Sie sich doch bitte bei uns.
\begin{itemize}
\item \url{https://metaphor.ethz.ch/x/2017/hs/401-1151-00L/Beispiel_JNF.pdf}
\item \url{http://www.math.kit.edu/iag2/lehre/la2mathe20122012s/media/tutorium02_l\%C3\%B6sungshinweise.pdf}
\item \url{https://www.youtube.com/watch?v=hPAQdmEPU_k}
\item \url{https://www3.math.tu-berlin.de/Vorlesungen/WS10/LinAlg2/BerechnungJNF.pdf}
\item \url{https://www.youtube.com/watch?v=S31sSZ2FbRo}
\end{itemize}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

368
03-Anwendungen.tex Normal file
View File

@ -0,0 +1,368 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 03-Anwendungen.tex 14 2020-05-04 14:07:20Z kebekus $}
\chapter{Anwendungen}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\section{Hohe Potenzen}
\label{sec:hohePot}
\sideremark{Vorlesung 5}Als erste Anwendung der Jordanschen Normalform möchte
ich zeigen, wie man sehr hohe Potenzen einer Matrix oder eines Endomorphismus
ausrechnen kann. Wenn Sie noch nie das Bedürfnis hatten, sehr hohe Potenzen
einer Matrix oder eines Endomorphismus auszurechnen, dann bitte ich Sie um etwas
Geduld. Wir werden etwas später noch sehen, wozu das gut ist.
\begin{beobachtung}[Hohe Potenzen nilpotenter Jordanblöcke]
Für einen nilpotenten Jordanblock $J(0,n)$ (über einem beliebigen Körper) und
eine Zahl $p ∈ $ ist es sehr einfach, die Potenz $J(0,n)^p$ auszurechnen.
Ich schreibe gar keinen komplizierten Satz auf, sondern rechne einfach ein
Beispiel.
\begin{align*}
J(0,5) &=
\begin{pmatrix}
0 & 1 & 0 & 0 & 0 \\
0 & 0 & 1 & 0 & 0 \\
0 & 0 & 0 & 1 & 0 \\
0 & 0 & 0 & 0 & 1 \\
0 & 0 & 0 & 0 & 0
\end{pmatrix} &
J(0,5)² &=
\begin{pmatrix}
0 & 0 & 1 & 0 & 0 \\
0 & 0 & 0 & 1 & 0 \\
0 & 0 & 0 & 0 & 1 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0
\end{pmatrix} \\
J(0,5)³ &=
\begin{pmatrix}
0 & 0 & 0 & 1 & 0 \\
0 & 0 & 0 & 0 & 1 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0
\end{pmatrix} &
J(0,5)⁴ &=
\begin{pmatrix}
0 & 0 & 0 & 0 & 1 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0
\end{pmatrix} \\
J(0,5)⁵ &=
\begin{pmatrix}
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0
\end{pmatrix} &
J(0,5)^p & = 0 \text{ für alle } p ≥ 5.
\end{align*}
Ich bin mir sicher, Sie durchschauen das System.
\end{beobachtung}
Als nächstes überlegen wir uns, wie die Potenzen von beliebigen Jordan-Blöcken
ausrechnen. Das folgende Lemma sagt, wie das geht. Beachten Sie, dass in der
Formel~\eqref{eq:binomi} stets $J(0,n)= 0$ ist, falls $i ≥ n$ ist. Das
macht die Formel kurz und in der Praxis gut berechenbar.
\begin{lem}[Hohe Potenzen von Jordanblöcken]\label{lem:binomi}
Es sei $k$ ein Körper, es sei $λ ∈ k$ und $n,p ∈ $. Dann ist
\begin{equation}\label{eq:binomi}
J(λ,n)^p = \sum_{i=0}^p \binom{p}{i}·λ^{p-i}·J(0,n)ⁱ.
\end{equation}
Dabei ist $\binom{p}{i}$ der bekannte
\href{https://de.wikipedia.org/wiki/Binomialkoeffizient}{Binomialkoeffizient}.
\end{lem}
\begin{proof}[Beweis als Übungsaufgabe]
Schreibe wieder einmal $J(λ,n) = λ·\Id_{n n} + J(0,n)$ und
\[
J(λ,n)^p =\bigl( λ·\Id_{n n} + J(0,n) \bigr)^p
\]
Beachten Sie, dass die Matrizen $λ·\Id_{n n}$ und $J(0,n)$ kommutieren,
dass also die Gleichheit
\[
λ·\Id_{n n}·J(0,n) = λ·J(0,n)·\Id_{n n}
\]
gilt! Benutzen Sie das, um jetzt genau wie in der Analysis-Vorlesung die
binomische Formel~\eqref{eq:binomi} per Induktion nach $p$ zu zeigen.
\end{proof}
\begin{beobachtung}[Hohe Potenzen von Matrizen in Jordanscher Normalform]
Falls $A$ eine quadratische Matrix in Jordanscher Normalform ist (über einem
beliebigen Körper),
\[
A = \begin{pmatrix}
J(λ_1, n_1) & & & 0 \\
& J(λ_2, n_2) & \\
& & \ddots \\
0 & & & J(λ_l, n_l)
\end{pmatrix}
\]
und falls irgendein $p ∈ $ gegeben ist, dann rechnen Sie bitte nach, dass
\[
A^p = \begin{pmatrix}
J(λ_1, n_1)^p & & & 0 \\
& J(λ_2, n_2)^p & \\
& & \ddots \\
0 & & & J(λ_l, n_l)^p
\end{pmatrix}
\]
ist. Lemma~\ref{lem:binomi} sagt, wie man den letzten Ausdruck gut
ausrechnet.
\end{beobachtung}
\begin{beobachtung}[Hohe Potenzen von komplexen Matrizen]
Es sei $A$ eine beliebige quadratische $(n n)$-Matrix über den komplexen
Zahlen. Wir wissen nach Kapitel~\ref{chapt:Jordan}, wie wir halbwegs effizient
eine invertierbare Matrix $S ∈ GL_n()$ finden, so dass $B := S·A·S^{-1}$
Jordansche Normalform hat. Dann ist $A = S^{-1}·B·S$ und
\[
A^p = S^{-1}·B·\underbrace{S·S^{-1}}_{= \Id}·B·\underbrace{S·S^{-1}}_{= \Id}·B·S ⋯ S^{-1}·B·S = S^{-1}·B^p·S.
\]
Aber $B^p$ können wir ganz gut ausrechnen.
\end{beobachtung}
\section{Die Exponentialfunktion}
\subsection{Wiederholung}
In der Vorlesung Analysis haben Sie die Exponentialfunktion kennen gelernt,
\[
\exp : , \quad t ↦ \sum_{n=0}^\frac{t^n}{n!}
\]
Wahrscheinlich kennen Sie auch schon die komplexe Exponentialfunktion und
wissen, dass für jede reelle Zahl $t$ gilt
\[
\exp(i·t) = \cos(t) + i·\sin(t).
\]
Falls nicht, ist jetzt eine gute Gelegenheit, diese Dinge auf
\href{https://de.wikipedia.org/wiki/Exponentialfunktion}{Wikipedia} nachzulesen.
\subsection{Das Matrixexponential}
Ich verallgemeinere die Exponentialfunktion jetzt, die Beweise in diesem Abschnitt
überlasse ich aber den Kollegen von der Analysis. Gegeben eine
$(n n)$-Matrix $A$ über den komplexen Zahlen, definiere ich
\[
\exp(A) := \sum_{n=0}^\frac{1}{n!}·A^n.
\]
Dabei sei $A⁰$ stets die $(n n)$-Einheitsmatrix. Diese Reihe konvergiert
in dem Sinne, dass jeder einzelne der $$ vielen Matrixeinträge konvergiert --
natürlich lässt sich noch viel mehr sagen: absolute Konvergenz, Konvergenz in
Operatornorm, …. Ich erhalte so eine Abbildung
\[
\exp : \Mat_{n n}() → \Mat_{n n}(), \quad A ↦ \sum_{n=0}^\frac{1}{n!}·A^n
\]
die in der Literatur oft Matrixexponential\index{Matrixexponential} genannt
wird. Sie finden weitere Erläuterungen und erste Beispiele bei
\href{https://de.wikipedia.org/wiki/Matrixexponential}{Wikipedia}.
\begin{bsp}
Es sei $A$ eine komplexe $(n n)$-Diagonalmatrix,
\[
A = \begin{pmatrix}
λ_1 & & & 0 \\
& λ_2 & \\
& & \ddots \\
0 & & & λ_n
\end{pmatrix}
\]
Dann ist
\[
\exp(A) = \begin{pmatrix}
\exp_1) & & & 0 \\
& \exp_2) & \\
& & \ddots \\
0 & & & \exp_n)
\end{pmatrix}
\]
\end{bsp}
\begin{bsp}
Für einen nilpotenten Jordanblock $J(0,i)$ ist das Matrixexponential gegeben
durch die endliche Summe
\[
\exp J(0,i) = \sum_{n=0}^{i-1} \frac{1}{n!}J(0,i)^n
\]
\end{bsp}
Etwas
weitergehende Beispiele finden Sie als
\href{http://www.iam.uni-bonn.de/fileadmin/Mathphys/15SS_ODEs/06-matrixexponential.pdf}{Beispiel
1.4. in diesem Seminarvortrag}. Ich nenne ohne Beweis einige Eigenschaften des
Matrixexponentials.
\begin{fakt}[Elementare Fakten zum Matrixpotential]
Es sei $n ∈ $ eine Zahl weiter seien $A$ und $B$ zwei komplexe
$(n n)$-Matrizen.
\begin{enumerate}
\item\label{il:3-2-3-1} Falls $A$ und $B$ kommutieren (falls also $AB=BA$
ist), dann gilt
\[
\exp(A+B)=\exp(A)·\exp(B).
\]
\item\label{il:3-2-3-2} Für jede invertierbare, komplexe $(n n)$-Matrix
$S$ ist
\[
\exp(S·A·S^{-1}) = S·\exp(A)·S^{-1} \eqno \qed
\]
\end{enumerate}
\end{fakt}
\begin{beobachtung}
Wenn $A$ irgendeine komplexe $(n n)$-Matrix ist, dann kommutieren die
Matrizen $A$ und $-A$ offenbar. Also ist nach Punkt~\ref{il:3-2-3-1}
\[
\Id_{n n} = \exp(0) = \exp \bigl(A+(-A) \bigr) = \exp(A) · \exp(-A).
\]
Es folgt, dass das Matrixexponential $\exp(A)$ für jede komplexe
$(n n)$-Matrix $A$ stets invertierbar ist, und dass
$\exp(A)^{-1} = \exp(-A)$ gilt.
\end{beobachtung}
Insgesamt sollten Sie mit den Beobachtungen aus Abschnitt~\ref{sec:hohePot}
jetzt ganz gut in der Lage sein, beliebige Matrixexponentials auszurechnen.
\section{Lineare, homogene Differentialgleichungssysteme}
\subsection{Erinnerung}
Sie haben lineare, homogene Differentialgleichungen wahrscheinlich schon in der
Schule kennen gelernt. Gegeben sind Zahlen $a$ und $y_0$ aus $$. Gesucht ist
eine differenzierbare Funktion $y : $, so dass für alle $t ∈ $
gilt: $y'(t) = a·y(t)$. Außerdem soll $y(0) = y_0$ sein. Aus der Vorlesung
Analysis wissen Sie, dass es nur eine solche Funktion gibt:
$$
y(t) = \exp(t·a)·y_0.
$$
Dasselbe funktioniert genau so mit komplexen Zahlen.
\subsection{Lineare, homogene Differentialgleichungssysteme}
Gegeben sei jetzt eine Zahl $n ∈ $, eine komplexe $(n n)$-Matrix $A$
und ein Vektor $\vec{y}_0^n$. Gesucht sind $n$ differenzierbare
Funktionen $y_1$, …, $y_n : $, so dass für alle $t ∈ $ gilt:
\[
\begin{pmatrix}
y'_1(t) \\
y'_2(t) \\
\vdots \\
y'_n(t)
\end{pmatrix}
=
A ·
\begin{pmatrix}
y_1(t) \\
y_2(t) \\
\vdots \\
y_n(t)
\end{pmatrix}
\]
Außerdem soll
\[
\begin{pmatrix}
y_1(0) \\
y_2(0) \\
\vdots \\
y_n(0)
\end{pmatrix}
= \vec{y}_0
\]
sein.
\begin{fakt}[Lösungsformel für lineare, homogene Differentialgleichungssysteme]\label{fakt:3-3-1}
Diese Problem hat genau eine Lösung. Die Funktionen $y_1$, …, $y_n$ sind
gegeben als
\[
\begin{pmatrix}
y_1(t) \\
y_2(t) \\
\vdots \\
y_n(t)
\end{pmatrix}
= \exp(t·A)·\vec{y}_0
\eqno \qed
\]
\end{fakt}
\begin{bsp}
Ich diskutiere ein Beispiel in \video{5-1}.
\end{bsp}
\subsection{Differentialgleichungen höherer Ordnung}
Ich erkläre an einem Beispiel, wie man mit unseren Methoden eine
Differentialgleichung höherer Ordnung löst. Gegeben seien Zahlen $a$, $b$ und
$c$ sowie $y_0$, $y'_0$ und $y''_0$. Gesucht ist eine Funktion
$y : $, so dass für alle $t ∈ $ gilt:
\begin{equation}\label{eq:3-3-2-1}
y'''(t) = a·y(t)+b·y'(t)+c·y''(t).
\end{equation}
Außerdem soll $y(0) = y_0$, $y'(0) = y'_0$ und $y''(0) = y''_0$ sein. Der Trick
ist, jetzt neue Funktionen einzuführen:
\[
y_1 := y, \quad y_2 := y', \quad\text{und}\quad y_3 := y''.
\]
Dann ist $y'_1 = y_2$, $y'_2 = y_3$ und $y'_3 = a·y_1 + b·y_2 + c·y_3$. In
dieser Formulierung stellt sich \eqref{eq:3-3-2-1} wie folgt dar.
\[
\begin{pmatrix}
y'_1(t) \\
y'_2(t) \\
y'_3(t)
\end{pmatrix}
=
\begin{pmatrix}
0 & 1 & 0 \\
0 & 0 & 1 \\
a & b & c
\end{pmatrix}
·
\begin{pmatrix}
y_1(t) \\
y_2(t) \\
y_3(t)
\end{pmatrix}
\quad\text{und}\quad
\begin{pmatrix}
y_1(0) \\
y_2(0) \\
y_3(0)
\end{pmatrix}
=
\begin{pmatrix}
y_0 \\
y'_0 \\
y''_0
\end{pmatrix}
\]
Nach der Lösungsformel für lineare, homogene Differentialgleichungssysteme,
Fakt~\ref{fakt:3-3-1}, können wir diese DGL jetzt aber lösen.
\begin{bsp}
Es gibt auf YouTube sehr viele Beispielvideos. Ich empfehle
\href{https://www.youtube.com/watch?v=8\_Poojt6QzM}{dieses Video meines
Kollegen Loviscach}, der super-gut erklären kann.
\end{bsp}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

265
04-Cayley-Hamilton.tex Normal file
View File

@ -0,0 +1,265 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 04-Cayley-Hamilton.tex 60 2020-07-01 07:14:02Z kebekus $}
\chapter{Der Satz von Cayley-Hamilton}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\section{Der Einsetzungsmorphismus}
\sideremark{Vorlesung 6}Wir betrachten wieder die folgende Situation.
\begin{situation}\label{sit:4-0-1}
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler $k$-Vektorraum und
es sei $f ∈ \End(V)$ ein linearer Endomorphismus.
\end{situation}
In der Situation~\ref{sit:4-0-1} gibt es noch mehr Endomorphismen, zum Beispiel
\[
f⁰ = \Id_V, \quad f², \quad f³, \quad\text{oder}\quad f⁵-7·f²+12·f-5·f⁰.
\]
Das funktioniert natürlich nicht nur mit den Polynomen $x⁰$, $$, $$ und
$x⁵-7·x²+12·x-5$ sondern ganz allgemein. Die passende Definition kommt
sofort, aber zuerst erinnern wir uns an eine einige Definition zum Thema
``Polynome''.
\begin{defn}[Polynome]
Gegeben einen Körper $k$, dann bezeichne mit $k[t]$ die Menge der Polynome mit
Koeffizienten im Körper $k$. Gegeben ein Polynom
$p(t) = \sum a_i·tⁱ ∈ k[t]$, dann nenne
\[
d :=
\left\{
\begin{matrix}
-1 && \text{falls } p = 0 \\
\max \{ i ∈ \:|\: a_i \ne 0\} && \text{sonst}
\end{matrix}
\right.
\]
den Grad\index{Grad eines Polynoms} des Polynoms, in Formeln $\deg(f)$. Falls
$\deg(p)0$, dann nenne $a_{\deg(p)}$ den
Leitkoeffizienten\index{Leitkoeffizient} von $p$. Ein Polynom heißt
normiert\index{normiert!Polynom}, falls der Leitkoeffizient gleich 1 ist.
\end{defn}
\begin{bsp}
Es ist $+π·t- \sqrt{2}[t]$, aber nicht in $[t]$.
\end{bsp}
Ich wiederhole die Warnung aus ``Lineare Algebra I''. Wie wir in der Schule
gelernt haben, liefert jedes Polynom $p(t) ∈ k[t]$ eine Abbildung $k → k$,
$λ ↦ p(λ)$, die man oft irreführenderweise ebenfalls mit $p$
bezeichnet. Beachten Sie aber, dass Polynome zwar Abbildungen liefern, aber
keine Abbildungen sind! Wenn $𝔽_2$ der bekannte Körper mit zwei Elementen ist,
dann sind die Polynome $t$, $$, $$, … alle unterschiedlich (denn sie haben
ja unterschiedlichen Grad). Die zugehörigen Abbildungen sind aber alle gleich.
Insgesamt gibt es unendliche viele Polynome, aber natürlich nur endlich viele
Selbstabbildungen des endlichen Körpers $𝔽_2$.
\begin{defn}[Einsetzungsabbildung für Endomorphismen]
In Situation~\ref{sit:4-0-1} sei ein Polynom $p(t) = \sum_{i=0}^n a_i·tⁱ$ aus
$k[t]$ gegeben -- dabei sind die Koeffizienten $a_i$ per Definition Elemente
des Körpers $k$. Dann bezeichne mit $p(f)\End(V)$ den Endomorphismus
\[
p(f) := \sum_{i=0}^n a_i·fⁱ.
\]
Wir erhalten so eine Abbildung
\[
s: k[t] → \End(V), \quad p ↦ p(f),
\]
genannt
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Endomorphismen}.
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
$k$ und ein ein Polynom $p(t) ∈ k[t]$ definieren wir völlig analog eine
Matrix $p(A)$ und eine
\emph{Einsetzungsabbildung}\index{Einsetzungsabbildung!Matrizen}
$s: k[t]\Mat(n n, k)$ durch $s(A) = p(A)$.
\end{defn}
\begin{beobachtung}[Einsetzungsabbildung bei ähnlichen Matrizen]\label{beob:4-0-6}
Gegeben eine Zahl $n ∈ $, eine $(n n)$-Matrix $A$ mit Einträgen in
$k$ und ein ein Polynom $p(t) ∈ k[t]$. Wenn wir noch eine invertierbare
Matrix $S ∈ GL_n(k)$ haben, dann ist
\[
p(S·A·S^{-1}) = S·p(A)·S^{-1}.
\]
\end{beobachtung}
\begin{satz}[Satz von Cayley-Hamilton]\label{satz:CayleyHamilton}
In Situation~\ref{sit:4-0-1} sei $χ_f(t) ∈ k[t]$ das charakteristische
Polynom des Endomorphismus $f$. Dann ist
\[
χ_f(f) = 0 ∈ \End(V).
\]
\end{satz}
\begin{bemerkung}
Der Satz von Cayley-Hamilton funktioniert genau so für Matrizen.
\end{bemerkung}
Kurz formuliert: Der Satz von Cayley-Hamilton sagt, dass jeder Endomorphismus
Nullstelle seines eigenen charakteristischen Polynoms ist. Wie cool ist das?
\begin{proof}[Beweis von Satz~\ref{satz:CayleyHamilton}]
\video{6-1}
\end{proof}
\section{Das Minimalpolynom}
Wir bleiben in Situation~\ref{sit:4-0-1}. Dann wissen wir schon, dass $f$ eine
Nullstelle von $χ_f$ ist. Wir fragen uns, ob es nicht noch ein einfacheres
Polynom $p(t) ∈ k[t]$ gibt, so dass $p(f) = 0$ ist. Und nein, wir wollen nicht
das Nullpolynom betrachten.
\begin{beobachtung}\label{beob:4-0-7}
In Situation~\ref{sit:4-0-1}, wenn ein Polynom $p(t) ∈ k[t]$ gegeben ist mit
$p(f) = 0$ und wenn $λ ∈ k \{0\}$ dann ist $q := λ·p$ auch wieder
ein Polynom und $q(f) = 0$. Konsequenz: bei unserer Suche nach möglichst
einfachen Polynomen können wir immer annehmen, dass der Leitkoeffizient gleich
1 ist.
\end{beobachtung}
\begin{beobachtung}\label{beob:4-0-8}
In Situation~\ref{sit:4-0-1} seien $p_1(t)$ und $p_2(t) ∈ k[t]$ zwei
unterschiedliche Polynome mit $p_1(f) = p_2(f) = 0$. Angenommen, die Grade von
$p_1$ und $p_2$ seien gleich und beide Polynome seien normiert. Setzt
$q := p_1-p_2$. Dann gilt Folgendes.
\begin{itemize}
\item Das Polynome $q$ ist nicht das Nullpolynom.
\item Es ist $q(f) = p_1(f) - p_2(f) = 0 - 0 = 0\End(V)$.
\item Es ist $\deg q < \deg p_1 = \deg p_2$.
\end{itemize}
\end{beobachtung}
Diese Beobachtungen legen folgende Definition nahe.
\begin{defn}[Minimalpolynom]
Gegeben Situation~\ref{sit:4-0-1} ein Polynom $m(t) ∈ k[t]$ heißt
\emph{Minimalpolynom des Endomorphismus
$f$}\index{Minimalpolynom!Endomorphismus}, falls Folgendes gilt.
\begin{itemize}
\item Das Polynom $m$ ist nicht das Nullpolynom.
\item Das Polynom $m$ ist normiert.
\item Der Grad von $m$ ist minimal unter den Graden aller Polynome, die $f$
als Nullstelle haben.
\end{itemize}
Das Minimalpolynom einer quadratischen Matrix ist analog
definiert\index{Minimalpolynom!Matrix}.
\end{defn}
\begin{bemerkung}
Beobachtung~\ref{beob:4-0-7} und der Satz~\ref{satz:CayleyHamilton} von
Cayley-Hamilton sagen, dass Minimalpolynome für jeden Endomorphismus und für
jede quadratische Matrix existieren. Beobachtung~\ref{beob:4-0-8} sagt, dass
dies Minimalpolynome eindeutig bestimmt ist.
\end{bemerkung}
\begin{bsp}
Betrachte die reelle Matrix
\[
A :=
\begin{pmatrix}
5 & 1 & 0 \\
0 & 5 & 0 \\
0 & 0 & 5
\end{pmatrix}
\]
Da die Matrix $A$ kein Vielfaches von $\Id_{3 3}$, ist das
Minimalpolynom von $A$ ganz sicher nicht linear. Auf der anderen Seite ist
\[
A² =
\begin{pmatrix}
25 & 10 & 0 \\
0 & 25 & 0 \\
0 & 0 & 25
\end{pmatrix}
\]
Also ist $-10·A+25·\Id_{3 3} = 0$. Also ist
$p(t) =-10·t+25 = (t-5)²$ ein normiertes Polynom, das $A$ als Nullstelle
hat. Das muss dann wohl das Minimalpolynom sein.
\end{bsp}
\begin{bsp}
Es sei $A$ ein Jordanblock der Form $A = J(λ,n)$. Dann ist $p(t) = (t-λ)^n$
ein normiertes Polynom, das $A$ als Nullstelle hat. Überlegen Sie sich als
Hausaufgabe, dass $P$ tatsächlich das Minimalpolynom ist.
\end{bsp}
\begin{beobachtung}
Beobachtung~\ref{beob:4-0-6} zeigt: ähnliche Matrizen haben dasselbe
Minimalpolynom.
\end{beobachtung}
Der folgenden Satz liefern eine erste Beschreibung des Minimalpolynoms.
\begin{satz}[Andere Polynome mit $f$ als Nullstelle]
In Situation~\ref{sit:4-0-1} sei $p(t)$ das Minimalpolynom von $f$, und $q(t)$
sei ein weiteres, nicht-verschwindendes Polynom, das $f$ als Nullstelle
hat. Dann ist $q$ ein Vielfaches des Minimalpolynoms $p$. Das bedeutet: es
gibt ein Polynom $r(t)$, so dass $q(t) = r(t)·p(t)$ ist.
\end{satz}
\begin{proof}
Ich führe einen Widerspruchsbeweis und nehme an, die Aussage sei falsch. Dann
gibt es ein Polynom $q(t)$ mit $q(f) = 0$, welches kein Vielfaches von $p$
ist. Wir können gleich noch Folgendes annehmen.
\begin{enumerate}
\item Das Polynom $q$ ist normiert.
\item Der Grad von $q$ ist minimal unter den Graden aller Polynome, die $f$
als Nullstelle haben und die kein Vielfaches von $p$ sind.
\end{enumerate}
Dann ist ganz klar per Definition von ``Minimalpolynom'' $\deg q ≥ \deg
p$. Es sei $d := \deg q - \deg p$. Man beachte, dass $t^d·p$ ebenfalls
normiert ist und $f$ als Nullstelle hat. Also hat
\[
r(t) = q(t) - t^d·p(t)
\]
ebenfalls $f$ als Nullstelle. Weiterhin ist $r$ kein Vielfaches von $p$ (…denn
sonst wäre auch $q$ ein Vielfaches von $p$). Zusätzlich gilt:
$\deg r < \deg q$, im Widerspruch zur Annahme, dass der Grad von $q$ minimal
sei.
\end{proof}
\begin{satz}[Nullstellen des Minimalpolynoms]
Es sei $k$ eine Körper, $A$ eine $(n n)$-Matrix mit Werten in $k$ und
$λ ∈ k$. TFAE:
\begin{enumerate}
\item Das Skalar $λ$ ist ein Eigenwert von $A$.
\item Das Skalar $λ$ ist eine Nullstelle des charakteristischen Polynoms
$χ_A$.
\item Das Skalar $λ$ ist eine Nullstelle des Minimalpolynoms von $A$.
\end{enumerate}
\end{satz}
\begin{proof}
\video{6-2}
\end{proof}
Über den komplexen Zahlen können wir die Frage nach dem Minimalpolynom
vollständig beantworten.
\begin{satz}[Beschreibung des Minimalpolynoms über $$]
Es sei $A$ eine $(n n)$-Matrix über den komplexen Zahlen. Bezeichne die
Eigenwerte von $A$ mit $λ_1$, …, $λ_d$ und schreibe für jeden Index $i$
\[
m_i := \text{Länge des längsten Jordanblocks zum Eigenwert } λ_i.
\]
Dann ist das Minimalpolynom von $A$ gegeben als
\[
p(t) = (t-λ_1)^{m_1}·(t-λ_2)^{m_2}⋯ (t-λ_d)^{m_d}.
\]
\end{satz}
\begin{proof}
\video{6-3}
\end{proof}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

391
05-Skalarprodukt-im-Rn.tex Normal file
View File

@ -0,0 +1,391 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 05-Skalarprodukt-im-Rn.tex 59 2020-06-30 16:54:41Z kebekus $}
\chapter{Das Standardskalarprodukt im $^n$}
\sideremark{Revision \svnfilerev\\ \svnfileday.\svnfilemonth.\svnfileyear}
\label{chap:eukl}
\section{Die Euklidische Norm und der Euklidische Abstand}
\label{sec:end}
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung ``nur'' Vektorräume
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
von ``Länge'' oder ``Norm'' eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir
dann beliebige Vektorräume.
\begin{defn}[Euklidische Norm auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
\[
\begin{matrix}
\|\| & : & ^n && \\
& &
\begin{pmatrix}
x_1 \\
\vdots \\
x_n
\end{pmatrix}
&& \sqrt{ \sum_{i=1}^n x²_i}
\end{matrix}
\]
heißt \emph{Euklidische Norm auf dem
$^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $^n$}.
\end{defn}
\begin{defn}[Euklidischer Abstand auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
\[
\begin{matrix}
d & :& ^n ^n && \\
&& (x,y) && \|x-y\|
\end{matrix}
\]
heißt \emph{Euklidischer Abstand auf dem $^n$}\index{Abstand|see{Metrik}}
oder \emph{Euklidische Metrik auf dem
$^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $^n$}.
\end{defn}
Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
\section{Abstandserhaltende Abbildungen}
Ähnlich wie bei den linearen Abbildungen (die die Struktur des Vektorraumes
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
beziehungsweise den Euklidischen Abstand respektieren.
\begin{defn}
Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt
\emph{abstandserhaltend bezüglich der Euklidischen
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}}
oder \emph{metrikerhaltend bezüglich der Euklidischen
Norm}\index{metrikerhaltende Abbildung!bezüglich der Euklidischen Norm},
falls gilt:
\[
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
\vec{y}^n.
\]
\end{defn}
\begin{bsp}[Translationen]
Es sei $n ∈ $ eine Zahl und $\vec{v}^n$ ein Vektor. Die
Abbildung
\[
T_{\vec{v}} : ^n → ^n, \quad \vec{x}\vec{x}+\vec{v}
\]
ist abstandserhaltend bezüglich der Euklidischen Norm. Man nennt Abbildungen
dieser Form \emph{Translationen}\index{Translation}.
\end{bsp}
\begin{bsp}
Spiegelungen und Drehungen der Ebene $ℝ²$ sind abstandserhaltend.
\end{bsp}
\subsection{Die Gruppenstruktur}
Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
Abbildungen.
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend
bezüglich der Euklidischen Norm. Dann gilt Folgendes.
\begin{enumerate}
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
\item\label{il:5-2-4-2} Die Umkehrabbildung $φ^{-1}$ ist ebenfalls
abstandserhaltend.
\end{enumerate}
Zusätzlich gilt:
\begin{enumerate}
\item\label{il:5-2-4-3} Die Verknüpfung abstandserhaltender Abbildungen ist
abstandserhaltend.
\end{enumerate}
\end{lem}
\begin{proof}
Wir beweisen die Teilaussage ``$φ$ ist injektiv'' von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit
$φ(\vec{v}_1) = φ(\vec{v}_2)$. Dann ist
\[
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
\]
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage `` $φ$
ist surjektiv'' beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
\end{proof}
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
Die abstandserhaltenden Abbildungen bilden mit der Verknüpfung eine
Untergruppe der Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
\end{kor}
\section{Orthogonale Transformationen}
\label{sec:orthTrafo}
Das Ziel im laufenden Kapitel~\ref{chap:eukl} ist, die abstandserhaltenden
Abbildungen zu verstehen. Die folgende Beobachtung vereinfacht das Problem
enorm.
\begin{beobachtung}
Es sei $n ∈ $ eine Zahl und es sei $φ: ^n → ^n$ irgendeine
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
Abbildung
\[
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c} .
\]
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
\end{beobachtung}
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
Nullvektor abbilden. Solche Abbildungen heißen ``orthogonale Transformation''.
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}
Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands}\index{Transformation des
$^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
abstandserhaltende Abbildung $ψ: ^n ˝→ ^n$ mit $ψ(\vec{0}) = \vec{0}$.
\end{defn}
\subsection{Die Gruppenstruktur}
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}
Es sei $n ∈ $ eine Zahl. Die orthogonalen Transformationen bilden mit der
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
$\Bij(^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $^n$
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $^n$
bezüglich der Euklidischen Norm}.
\end{defn}
\section{Das Standard-Skalarprodukt auf dem $^n$}
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
Hilfsmittel dabei ist das ``Standardskalarprodukt auf dem $^n$.
\begin{defn}[Standardskalarprodukt $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
\[
\begin{matrix}
\langle •, • \rangle & : & ^n ^n && \\
& &
\left(
\begin{pmatrix}
x_1 \\
\vdots \\
x_n
\end{pmatrix},
\begin{pmatrix}
y_1 \\
\vdots \\
y_n
\end{pmatrix}
\right)
&& \sum_{i=1}^n x_i·y_i
\end{matrix}
\]
heißt \emph{Standardskalarprodukt $^n$}\index{Standardskalarprodukt!auf $^n$}.
\end{defn}
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen
Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
Eigenschaft einmal selbst?
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
Es sei $n ∈ $ eine Zahl. Dann gilt folgendes:
\begin{description}
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
\rangle + λ·\langle \vec{y}, \vec{z} \rangle
\]
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
\rangle + λ·\langle \vec{x}, \vec{z} \rangle
\]
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt
$\langle \vec{x}, \vec{x} \rangle0$. Außerdem gilt
$\langle \vec{x}, \vec{x} \rangle = 0\vec{x} = \vec{0}$.
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
\item[Satz von Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
und $\vec{y}^n$ gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
\rangle + \| \vec{y} \|². \eqno \qed
\]
\end{description}
\end{lem}
Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht
scheint.
\begin{defn}[Orthogonale Vektoren]
Es sei $n ∈ $ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und
$\vec{y}^n$ \emph{zueinander orthogonal}, falls
$\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von
Vektoren}.
\end{defn}
\begin{defn}[Orthonormalbasis]
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
Freunden: ONB), falls für alle $i, j$ gilt, dass
$\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das
Kronecker-Delta bezeichnet.
\end{defn}
\begin{bsp}
Die Standardbasis des $^n$ ist eine Orthonormalbasis bezüglich des
Standardskalarprodukts.
\end{bsp}
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $^n$
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei
$\vec{x}^n$ ein Vektor, den ich als Linearkombination darstellen kann:
\[
\vec{x} = \sum_{i=1}^n λ_\vec{v}_i .
\]
Um die Koeffizienten $λ_i$ auszurechnen, muss ich normalerweise komplizierte
Gleichungssysteme lösen. Hier ist alles viel einfachen, denn es gilt für
jeden Index $j$
\[
\langle \vec{x}, \vec{v}_j \rangle %
= \left\langle \sum λ_\vec{v}_i, \vec{v}_j \right\rangle %
= \sum λ_\langle \vec{v}_i, \vec{v}_j \rangle %
= \sum λ_i·δ_{ij} = λ_j.
\]
Ich kann den Koeffizienten $λ_j$ also durch ein Skalarprodukt ausrechnen. Das
geht meist \emph{viel} schneller als das Lösen von Gleichungssystemen!
\end{beobachtung}
\subsection{Standardskalarprodukt und orthogonale Transformationen}
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
Eine Menge, wie wir sofort sehen werden.
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y}^n$ die
Gleichung
\[
\langle φ(\vec{x}), φ(\vec{y}) \rangle = \langle \vec{x}, \vec{y} \rangle.
\]
\end{lem}
\begin{proof}
Seien $\vec{x}, \vec{y}^n$ gegeben. Dann gilt
\begin{align*}
\langle \vec{x}, \vec{y} \rangle &= -\langle \vec{x}, -\vec{y} \rangle \\
&= -\frac{1}{2} \Bigl( \| \vec{x} - \vec{y} \|² - \| \vec{x} \|² - \| -\vec{y} \|² \Bigr) && \text{Pythagoras} \\
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras}
\end{align*}
Damit ist das Lemma bewiesen.
\end{proof}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
eine Orthonormalbasis des $^n$.
\end{lem}
\begin{proof}
\video{7-1}
\end{proof}
\section{Beschreibung der orthogonalen Transformationen}
\label{sec:5-5}
Mit Hilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden
Abbildungen) vollständig beschreiben.
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
\end{satz}
\begin{proof}
Für jeden Index $i$ setze $\vec{v}_i := φ(e_i)$. Nach Lemma~\ref{claim:5-4-8}
bilden Sie $v_i$ dann eine ONB des $^n$ bilden. Überlegen Sie sich folgendes
als Hausaufgabe: um die Linearität von $φ: ^n → ^n$ zu zeigen, genügt es
also, zu zeigen, dass für alle Indizes $j$ die $$-wertigen Abbildungen
\[
η_j : ^n → , \quad \vec{x}\langle φ(\vec{x}), \vec{v}_j \rangle
\]
allesamt linear sind. Sei also ein Index $j$ gegeben, seien $\vec{x}$,
$\vec{y}^n$ und sei $λ ∈ $. Dann gilt
\begin{align*}
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2. Kpte.}\\
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
\end{align*}
Damit ist die Linearität gezeigt. \qed
\end{proof}
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}
Es sei $φ: ^n → ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
des $^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
\begin{enumerate}
\item Die Abbildung $φ$ ist eine orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands.
\item Die Matrix $Q$ erfüllt die Gleichung $Q^t·Q = \Id_{n n}$, wobei $Q^t$
wie üblich die zu $Q$ transponierte Matrix bezeichnet.
\end{enumerate}
\end{satz}
\begin{proof}
\video{7-2}
\end{proof}
Wenn eine Matrix $A ∈ Gl_n()$ die Gleichung $A^t·A = \Id_{n n}$ erfüllt, ist
es \emph{extrem} einfach, die inverse Matrix $A^{-1}$ auszurechnen. Ich brauche
keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
\begin{defn}[Orthogonale Matrix]\label{def:5-5-3}
Eine Matrix $A ∈ Gl_n()$ heißt \emph{orthogonal}\index{orthogonal!Matrix},
falls die Gleichung $A^t·A = \Id_{n n}$.
\end{defn}
\begin{defn}[Orthogonale Gruppe]
Die orthogonalen Matrizen bilden eine Untergruppe von $Gl_n()$, genannt
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
\end{defn}
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit ``orthogonale
Gruppe'' zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden bevorzuge ich die ausführliche Form.
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

540
06-Produkte.tex Normal file
View File

@ -0,0 +1,540 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 06-Produkte.tex 60 2020-07-01 07:14:02Z kebekus $}
\chapter{Bilinearformen und Sesquilinearformen}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\label{sec:bskalar}
\section{Bilinearformen und Skalarprodukte}
\label{sec:skalar}
\sideremark{Vorlesung 8}Der Name ``Standardskalarprodukt'' sagt es schon: es
gibt noch andere Skalarprodukte. Das Ziel dieses Abschnittes ist es,
Skalarprodukte (und später auch Hermitesche Produkte) ganz allgemein einzuführen
und zu diskutieren. Hier kommen alle relevanten Definitionen.
\begin{defn}[Bilinearformen]\label{def:6-1-1}
Es sei $k$ ein Körper und $V$ ein $k$-Vektorraum. Eine Abbildung
$b: V V → k$ heißt \emph{bilinear}\index{bilineare Abbildung} oder
\emph{Bilinearform}\index{Bilinearform}, falls Folgendes gilt.
\begin{description}
\item[Linearität in der ersten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V $ und für alle $λ ∈ k$ gilt
\[
b(\vec{x} + λ·\vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) +
λ·b(\vec{y}, \vec{z}).
\]
\item[Linearität in der zweiten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ k$ gilt
\[
b(\vec{x}, \vec{y} + λ \vec{z}) = b(\vec{x}, \vec{y}) +
λ·b(\vec{x}, \vec{z}) .
\]
\end{description}
\end{defn}
\begin{beobachtung}[Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-2}
Wenn ich eine Bilinearform mit einem Skalar multipliziere, erhalte ich eine
neue Bilinearform. Ebenso kann ich zwei Bilinearformen zu einer neuen
Bilinearform addieren. Die Menge der bilinearen Abbildungen bildet mit diesen
Verknüpfungen einen $k$-Vektorraum.
\end{beobachtung}
\begin{bsp}[Matrizen geben bilineare Abbildungen]\label{bsp:mgba}
Betrachte den Vektorraum $V = k^n$ und wähle eine beliebige
$n n$-Matrix $B$. Dann ist die Abbildung
\[
b : k^n k^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\vec{w}
\]
bilinear, wobei $^t$ die Transponierte von $$ ist\footnote{Ich
bin nicht mehr sicher, ob ich in der Vorlesung LA1 $^t$ oder
$^t•$ geschrieben habe. Beim Tippen schaut $^t$ viel besser
aus.}. Beachte dazu, dass $\vec{w}$ und $\vec{w}$ Spaltenvektoren sind,
und dass $\vec{v}^t$ ein Zeilenvektor ist. Das Produkt von einem Zeilenvektor
mit einem Spaltenvektor ist eine $1 1$-Matrix; die Definition von $b$
ist so zu verstehen, dass wir $1 1$-Matrizen mit den Skalaren
identifizieren.
\end{bsp}
\begin{defn}[Symmetrische Bilinearform]
Annahmen wie in Definition~\ref{def:6-1-1}. Eine Bilinearform
$b : V V → k$ heißt
\emph{symmetrisch}\index{Bilinearform!symmetrisch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung $b(\vec{x}, \vec{y}) = b(\vec{y}, \vec{x})$
gilt.
\end{defn}
\begin{beobachtung}[Symmetrische Bilinearformen bilden einen $k$-Vektorraum]\label{bem:6-1-4}
Ganz wie in Bemerkung~\ref{bem:6-1-4} bildet die Menge der symmetrischen
Bilinearformen einen Untervektorraum des Vektorraumes aller Bilinearformen.
\end{beobachtung}
\begin{bsp}[Symmetrische Matrizen geben symmetrische bilineare Abbildungen]\label{bsp:smgsA}
Erinnern Sie sich an die Rechenregeln für ``transponieren'' und
``Matrixprodukt''. Wenn eine $n n$-Matrix $B$ die Gleichung $B^t=B$
erfüllt, dann gilt für alle Vektoren $\vec{v}$ und $\vec{w}$ aus $k^n$, dass
\[
\Bigl(\vec{v}^{\:t}·B·\vec{w}\Bigr)^t = \vec{w}^{\:t}·B^\vec{v}^{\:tt} =
\vec{w}^{\:t}·B^\vec{v}.
\]
Folgern Sie, dass die Bilinearform $b$ aus Beispiel~\ref{bsp:mgba} genau dann
symmetrisch ist, wenn die Gleichung $B^t=B$ gilt. Matrizen mit dieser
Eigenschaft nennt man
\emph{symmetrisch}\index{Matrix!symmetrisch}\index{symmetrische Matrix}.
\end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-1-5}
Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Weiter sei $b$ eine
symmetrische Bilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Bilinearform!positiv semidefinit}\index{positiv
semidefinit} falls für alle $\vec{x} ∈ V$ die Ungleichung
$b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
\end{defn}
\begin{beobachtung}[Positive (semi)definite Bilinearformen gibt es nur über $$ und $$]
Die Begriffe ``positiv semidefinit'' und ``positiv definit'' sind nur für
$k = $ und $k = $ sinnvoll (und für andere Körper zwischen $$ und $$)! Bei anderen Körpern (etwa $k = $) ist
gar nicht klar, was die Aussage ``$b(\vec{x}, \vec{x})0$'' bedeuten soll.
\end{beobachtung}
\begin{beobachtung}[Positive (semi)definite Bilinearform bilden keinen Vektorraum]
Unter den Annahmen von Definition~\ref{defn:6-1-5} bildet die Menge der
positiv definiten Bilinearformen bildet \emph{keinen} Untervektorraum des
Raumes der symmetrischen Bilinearformen. Multiplizieren Sie eine gegebene
positiv definite Bilinearform mit der Zahl $-12$ um zu sehen, was schiefläuft.
\end{beobachtung}
\begin{bsp}[Positiv (semi)definite Matrizen]
Betrachte Beispiel~\ref{bsp:mgba} für $k=$, $n=2$ und die Matrizen
\[
\begin{pmatrix}
-1 & 0 \\ 0 & 2
\end{pmatrix}, \quad
\begin{pmatrix}
0 & 0 \\ 0 & 2
\end{pmatrix}, \quad
\begin{pmatrix}
π & 0 \\ 0 & 2
\end{pmatrix}, \quad
\begin{pmatrix}
π & -e \\ \frac{-256}{257} & 2
\end{pmatrix}
\]
Die entsprechenden Bilinearformen sind ``nicht positiv semidefinit'',
``positiv semidefinit'', ``positiv definit'' und … ?
\end{bsp}
\begin{defn}[Skalarprodukt auf reellem Vektorraum]
Es sei $k=$ oder $k=$ und $V$ ein $k$-Vektorraum. Ein
Skalarprodukt\index{Skalarprodukt!für reelle Vektorräume} auf $V$ ist eine
positiv definite symmetrische Bilinearform.
\end{defn}
\begin{bsp}[Standardskalarprodukt, Einschränkung]
Das Standardskalarprodukt auf dem $^n$ ist ein Skalarprodukt. Es sei $V$ ein
reeller Vektorraum und $\langle •, • \rangle$ sei ein
Skalarprodukt. Wenn $W ⊂ V$ ein Untervektorraum ist, dann ist
$\langle •, • \rangle|_{W W}$ wieder ein Skalarprodukt.
\end{bsp}
\begin{bsp}[Integration]\label{bsp:Integration}
Es sei $k = $ und es sei $V = \cC([0,1], )$ der Vektorraum der
reellwertigen stetigen Funktionen auf dem Einheitsintervall $[0,1]$, wie
in der Vorlesung ``Analysis 1'' diskutiert. Die Abbildung
\[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0 f(t) · g(t) dt.
\]
ist ein Skalarprodukt.
\end{bsp}
\subsection{Beschreibung von Bilinearformen durch Matrizen}
Die Überschrift sagt schon, worum es geht: wir wollen in diesem Abschnitt
Bilinearformen beschreiben, indem wir jeder Form eine Matrix zuordnen.
Didaktisch ist das eine Katastrophe -- wir haben in der Vorlesung ``Lineare
Algebra I'' jeder linearen Abbildung eine Matrix zugeordnet. Und jetzt machen
wir das mit Bilinearformen? Kurz gesagt: ``Ja!''
Lassen Sie sich nicht verwirren. Wir haben zwei völlig unterschiedliche Arten
von Objekten (``Lineare Abbildung'', ``Bilinearformen''), die gar nichts
miteinander zu tun haben. Dennoch lassen sich beide Objekte durch Matrizen
beschreiben. Das gibt es im Leben öfter.
\begin{quote}
``Velociraptoren'' sind etwas ganz anderes als ``romantische Gefühle'', auch
wenn beide Menschen verzehren. Dennoch lassen sich sowohl ``Velociraptoren''
als auch ``romantische Gefühle'' recht gut durch Bytestrings beschreiben
(vergleiche etwa \href{https://de.wikipedia.org/wiki/Velociraptor}{hier} und
\href{https://www.youtube.com/watch?v=7h3q9-FcoOM}{hier}).
\end{quote}
Wir betrachten die folgende Situation.
\begin{situation}\label{sit:6-3-1}
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit angeordneter Basis $B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende
Koordinatenabbildung bezeichnen wir wie immer mit $φ_B : V → k^n$.
\end{situation}
\begin{konstruktion}[Bilinearformen zu Matrizen]\label{cons:6-3-2}
In Situation~\ref{sit:6-3-1} sei eine Bilinearform $b : V V → k$
gegeben. Dann betrachte die $nn$-Matrix
\[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)_{1 ≤ i,j ≤ n}
\]
\end{konstruktion}
\begin{konstruktion}[Matrizen zu Bilinearformen]\label{cons:6-3-3}
In Situation~\ref{sit:6-3-1} sei eine $nn$-Matrix $A$ gegeben. Dann betrachte
die Bilinearform
\[
s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·φ_B(\vec{w})
\]
\end{konstruktion}
\begin{aufgabe}
Rechnen Sie nach, dass die Konstruktionen~\ref{cons:6-3-2} und
\ref{cons:6-3-3} zueinander inverse Isomorphismen von $k$-Vektorräumen
liefern!
\[
\begin{tikzcd}
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Bilinearformen} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd}
\]
Damit beweisen Sie unter anderem folgendes: gegeben Zahlen $a_{ij}$, dann gibt
es genau eine Bilinearform $b$, so dass für alle $i,j$ gilt, dass
$b(\vec{v}_i, \vec{v}_j) = a_{ij}$ ist. So eine Rechnung hatten wir schon,
als es darum ging, jeder linearen Abbildung eine Matrix zuzuordnen.
\end{aufgabe}
\begin{beobachtung}
Die Isomorphismen $s_B$ und $\Mat_B$ liefern durch Einschränkung Isomorphismen
zwischen dem Vektorraum der symmetrischen Matrizen und dem Vektorraum der
symmetrischen Bilinearformen. Wir erkennen insbesondere, dass die Räume der
Bilinearformen endlich-dimensional sind. Genauer:
\begin{align*}
\dim_k (\text{Bilinearformen}) &= \dim_k (\text{$n n$-Matrizen}) = n² \\
\dim_k (\text{symm.~Bilinearformen}) &= \dim_k (\text{symm.~$n n$-Matrizen}) = \frac{n(n+1)}{2}
\end{align*}
\end{beobachtung}
\begin{bsp}
Es sei $V$ der $$-Vektorraum der Polynome von Grade $2$, mit der
angeordneten Basis $B := \{ 1, x, x²\}$. Wieder betrachten wir die
Bilinearform
\[
b : V V → , \quad (p,q) ↦ \int_{-1}¹ p(t)·q(t)·dt
\]
Dann ist
\[
\Mat_B(b) =
\begin{pmatrix}
2 & 0 & \frac{2}{3} \\
0 & \frac{2}{3} & 0\\
\frac{2}{3} & 0 & \frac{2}{5}
\end{pmatrix}
\]
\end{bsp}
\subsection{Basiswechsel}
Wir kennen das Problem: gegeben ist ein $n$-dimensionaler $k$-Vektorraum $V$,
eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$. Wie unterscheiden sich $\Mat_{B_1}(b)$ und $\Mat_{B_2}(b)$?
\begin{erinnerung}
Die Koordinatenwechselmatrix wird mit Sicherheit eine Rolle spielen. Wir
erinnern uns: die Koordinatenwechselmatrix ist $S := \Mat^{B_1}_{B_2}(\Id_V)$.
Die wesentliche Eigenschaft von $S$ war zusammengefasst in der Kommutativität
des folgenden Diagramms,
\[
\begin{tikzcd}
k^n \ar[r, "S"] & k^n \\
V \ar[u, "φ_{B_1}"] \ar[r, "\Id_V"'] & V. \ar[u, "φ_{B_2}"']
\end{tikzcd}
\]
In einer Zeile: $S ◦ φ_{B_1} = φ_{B_2}$.
\end{erinnerung}
\begin{satz}[Basiswechselformel für Matrizen von Bilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Bilinearform $b : V V → k$ und zwei angeordnete Basen, $B_1$ und
$B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei
$M_{} := \Mat_{B_{}}(b)$. Dann ist
\[
M_1 = S^t·M_2·S.
\]
\end{satz}
\begin{proof}
\video{8-1}
\end{proof}
Lesson learned: Matrizen können sowohl lineare Abbildungen (insbesondere:
Endomorphismen) als auch bilineare Abbildungen zu beschreiben. Diese beiden
Funktionen haben nichts gemein. Deshalb soll es jetzt auch nicht verwundern,
dass sich die Basiswechsel-Formeln in beiden Fällen unterscheiden. Ein Trost
für alle, die immer noch verwirrt sind: die Basiswechsel-Formel für
Bilinearformen ist viel einfacher, weil man statt der inversen Matrix $S^{-1}$
nur die Transponierte $S^t$ ausrechnen muss.
\section{Sesquilinearformen und Hermitesche Produkte}
\sideremark{Vorlesung 9}So etwas schönes wie ein Skalarprodukt möchte man
natürlich auch für komplexe Vektorräume haben, leider funktionieren die
Definition aus Abschnitt~\ref{sec:skalar} aber im Komplexen nicht. Die Lösung:
man muss die Definition von ``Bilinearität'' abändern, um sicherzustellen, dass
die Zahlen $b(\vec{x}, \vec{x})$ stets reell sind (denn dann kann ich sinnvoll
sagen, ob die Zahl positiv ist oder nicht). Vielleicht finden Sie es
überraschend, dass man an der Definition von ``bilinear'' dreht, und nicht an
der Definition von ``positiv definit''. Der praktische Erfolg der folgenden
Definitionen gibt der Sache aber recht.
\begin{defn}[Sesquilinearform]\label{def:6-2-1}
Es sei $V$ ein Vektorraum über den komplexen Zahlen. Eine
\emph{Sesquilinearform}\index{Sesquilinearform}\footnote{Sesqui = Eineinhalb}
ist eine Abbildung $b: V V → $, so dass Folgendes gilt.
\begin{description}
\item[Linearität in der ersten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ $ gilt
\[
b(\vec{x} + \vec{y}, \vec{z}) = b(\vec{x}, \vec{z}) + b(\vec{y}, \vec{z}) %
\quad\text{und}\quad %
b(λ·\vec{x}, \vec{y}) = λ·b(\vec{x}, \vec{y}).
\]
\item[Semilinearität in der zweiten Komponente] Für alle
$\vec{x}, \vec{y}, \vec{z} ∈ V$ und für alle $λ ∈ $ gilt
\[
b(\vec{x}, \vec{y}+\vec{z}) = b(\vec{x}, \vec{y}) + b(\vec{x}, \vec{z}) %
\quad\text{und}\quad %
b(\vec{x}, λ·\vec{y}) = \overline{λ}·b(\vec{x}, \vec{y}).
\]
\end{description}
Dabei bezeichnet der Querstrich die \emph{komplexe Konjugation}
$x+i·y ↦ x - i·y$.
\end{defn}
\begin{beobachtung}[Sesquilinearformen bilden einen komplexen Vektorraum]\label{bem:6-2-2}
Wenn ich eine Sesquilinearform mit einer komplexen Zahl multipliziere, erhalte
ich eine neue Sesquilinearform. Ebenso kann ich zwei Sesquilinearformen zu
einer neuen Sesquilinearform addieren. Die Menge der Sesquilinearformen
bildet mit diesen Verknüpfungen einen komplexen Vektorraum. Beachten Sie,
dass jeder komplexe Vektorraum immer auch ein reeller Vektorraum ist, also
bildet die Menge der Sesquilinearformen insbesondere einen reellen Vektorraum.
\end{beobachtung}
\begin{bsp}[Matrizen geben sesquilineare Abbildungen]\label{bsp:mgbaC}
Betrachte den Vektorraum $V = ^n$ und wähle eine beliebige
$n n$-Matrix $B$. Dann ist die Abbildung
\[
b : ^n ^n → k, \quad (\vec{v},\vec{w}) ↦
\vec{v}^{\:t}·B·\overline{\vec{w}}
\]
sesquilinear. Dabei bezeichne der Querstrich $\overline{\vec{w}}$ den zu
$\vec{w}$ komponentenweise konjugierten Vektor, also zum Beispiel
\[
\overline{
\begin{pmatrix}
1+i \\
2-i \\
3
\end{pmatrix}
}
=
\begin{pmatrix}
1-i \\
2+i \\
3
\end{pmatrix}
\]
\end{bsp}
\begin{defn}[Hermitesche Sesquilinearform]
Annahmen wie in Definition~\ref{def:6-2-1}. Eine Sesquilinearform
$b : V V → $ heißt
\emph{Hermitesch}\footnote{\href{https://de.wikipedia.org/wiki/Charles_Hermite}{Charles
Hermite} (* 24. Dezember 1822 in Dieuze, Lothringen; † 14. Januar 1901 in
Paris) war ein französischer
Mathematiker.}\index{Sesquilinearform!Hermitesch}, falls für alle $\vec{x}$,
$\vec{y} ∈ V$ die Gleichung
$b(\vec{x},\vec{y}) = \overline{b(\vec{y},\vec{x})}$ gilt.
\end{defn}
\begin{beobachtung}[Reelle Werte von Hermiteschen Sesquilinearformen]\label{beo:rwvhs}
Es sei $b : V V → $ eine Hermitesche Sesquilinearform. Dann gilt
für jeden Vektor $x ∈ V$ die Gleichung $b(x,x) = \overline{b(x,x)}$. Es
folgt, dass $b(x,x) = \overline{b(x,x)}$ eine reelle Zahl ist, da der
imaginäre Anteil verschwinden muss.
\end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden einen reellen Vektorraum]\label{beob:6-2-4}
Wenn ich eine Hermitesche Sesquilinearform mit einer reellen Zahl
multipliziere, erhalte ich eine neue Hermitesche Sesquilinearform. Ebenso
kann ich zwei Hermitesche Sesquilinearformen zu einer neuen Hermitesche
Sesquilinearform addieren. Es folgt, dass die Menge der Hermiteschen
Sesquilinearformen einen \emph{reellen} Untervektorraum des reellen
Vektorraumes der Sesquilinearformen bildet.
\end{beobachtung}
\begin{beobachtung}[Hermitesche Sesquilinearformen bilden keinen komplexen Vektorraum]\label{beob:6-2-5}
Wenn ich eine Hermitesche Sesquilinearform (die nicht die Nullform ist) mit
einer komplexen Zahl multipliziere, die nicht reell ist, dann ist die
entstehende Sesquilinearform niemals Hermitesch\footnote{Hausaufgabe:
Wieso?!}. Die Menge der Hermiteschen Sesquilinearformen ist deshalb
\emph{kein} komplexer Vektorraum.
\end{beobachtung}
\begin{bsp}[Hermitesche Matrizen geben bilineare Abbildungen]
Überlegen Sie sich in kompletter Analogie zu Beispiel~\ref{bsp:smgsA}, dass
die Sesquilinearform $b$ aus Beispiel~\ref{bsp:mgbaC} genau dann Hermitesch
ist, wenn die Gleichung $B^t = \overline{B}$ gilt, wobei der Querstrich wieder
die komponentenweise Konjugation bezeichnet. Matrizen mit dieser Eigenschaft
nennt man \emph{Hermitesch}\index{Matrix!Hermitesch}\index{Hermitesche
Matrix}. Interessant: bei Hermiteschen Matrizen sind alle Einträge auf der
Diagonalen notwendigerweise reell. Hat das mit Beobachtung~\ref{beo:rwvhs} zu
tun?
\end{bsp}
\begin{defn}[Positive (semi)definite symmetrische Bilinearform]\label{defn:6-2-5}
Es sei $V$ ein komplexer Vektorraum. Weiter sei $b$ eine Hermitesche
Sesquilinearform auf $V$. Nenne $b$ \emph{positiv
semidefinit}\index{Hermitesche Sesquilinearform!positiv
semidefinit}\index{positiv semidefinit} falls für alle $\vec{x} ∈ V$ die
Ungleichung $b(\vec{x}, \vec{x})0$ gilt. Nenne $b$ \emph{positiv
definit}\index{Bilinearform!positiv definit}\index{positiv definit} falls
zusätzlich für alle $\vec{x} ∈ V$ gilt:
$b(\vec{x}, \vec{x}) = 0\vec{x} = \vec{0}$.
\end{defn}
\begin{defn}[Skalarprodukt auf komplexem Vektorraum]\label{def:6-2-8}
Es sei $V$ ein komplexer Vektorraum. Ein
Skalarprodukt\index{Skalarprodukt!für komplexe Vektorräume} auf $V$ ist eine
positiv definite, Hermitesche Sesquilinearform.
\end{defn}
\begin{bsp}
Erinnern Sie sich daran, dass für jede komplexe Zahl $z = x+i·y$ gilt, dass
$\overline{z} = (x+i·y)·(x-i·y) =+$ reell und nicht-negativ ist. Diese
Beobachtung zeigt, dass das
\emph{Standardskalarprodukt}\index{Standardskalarprodukt!auf $^n$} auf dem
Vektorraum $^n$,
\[
\begin{matrix}
\langle •, • \rangle & : & ^n ^n && \\
& &
\left(
\begin{pmatrix}
x_1 \\
\vdots \\
x_n
\end{pmatrix},
\begin{pmatrix}
y_1 \\
\vdots \\
y_n
\end{pmatrix}
\right)
&& \sum_{i=1}^n x_\overline{y_i}
\end{matrix}
\]
tatsächlich ein Skalarprodukt im Sinne von Definition~\ref{def:6-2-8} ist.
\end{bsp}
\begin{bsp}
Sei $V = \cC([0,1];)$ der komplexe Vektorraum der komplexwertigen stetigen
Funktionen auf dem Einheitsintervall $[0,1]$. Die Abbildung
\[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \int¹_0
f(t)·\overline{g(t)} dt.
\]
ist ein Skalarprodukt.
\end{bsp}
\subsection{Hermitesche Sesquilinearformen! OMG! Will ich das wirklich wissen?}
Alle Menschen verabscheuen Definitionen. Definitionen sind neu, und Menschen
lehnen alles Neue ab. Außerdem erfordern Definitionen Einarbeitung, das macht
Arbeit und kostet Zeit. Muss ich Hermitesche Sesquilinearformen wirklich
anschauen? Das lässt sich so pauschal nicht sagen. Fakt ist, dass Hermitesche
Sesquilinearformen (für unendlich-dimensionale Vektorräume) seit etwa 100 Jahren
die zentralen Objekte in der Formulierung der Quantenmechanik sind. Jeder
Chemiker und jeder Physiker muss das lernen.
\begin{quote}
Satz 1: In der Quantenmechanik tauchen Hermitesche Operatoren in der Form von
Observablen ständig auf.
--
\href{https://www.ph.tum.de/academics/bsc/break/2013s/fk_PH0007_01_course.pdf}{Ferienkurs
der TU München}
\end{quote}
\subsection{Matrizen und Basiswechsel}
Ganz analog zu Abschnitt~\ref{sec:skalar} können wir (Hermitesche)
Sesquilinearformen durch Matrizen beschreiben. Weil alle Argument ganz analog
gehen, geben wir nur die Ergebnisse an.
\begin{konstruktion}[Sesquilinearformen zu Matrizen]
Es sei $V$ ein endlich-dimensionaler $$-Vektorraum, mit angeordneter Basis
$B := \{\vec{v}_1, …, \vec{v}_n\}$. Die zugehörende Koordinatenabbildung
bezeichnen wir wie immer mit $φ_B : V → k^n$.
\begin{itemize}
\item Gegeben eine Sesquilinearform $b : V V → k$, dann betrachte die
$nn$-Matrix
\[
\Mat_B(b) := \bigl( b(\vec{v}_i, \vec{v}_j) \bigr)
\]
\item Gegeben eine $nn$-Matrix $A$ gegeben. Dann betrachte die
Sesquilinearlinearform
\[
s_B(A) : V V → k,\quad (\vec{v}, \vec{w}) ↦
φ_B(\vec{v})^t·A·\overline{φ_B(\vec{w})}
\]
\end{itemize}
\end{konstruktion}
Rechnen Sie nach, dass wir so zueinander inverse Isomorphismen von
$$-Vektorräumen erhalten,
\[
\begin{tikzcd}
\text{$nn$-Matrizen} \arrow[r, bend left, "s_B"] & \text{Sesquilinearformen,} \arrow[l, bend left, "\Mat_B"]
\end{tikzcd}
\]
die die Hermiteschen Formen mit den Hermiteschen Matrizen identifizieren.
Außerdem gilt folgender Satz.
\begin{satz}[Basiswechselformel für Matrizen von Sesquilinearformen]
Gegeben sei eine natürliche Zahl $n$, ein $n$-dimensionaler $k$-Vektorraum
$V$, eine Sesquilinearform $b : V V → k$ und zwei angeordnete Basen,
$B_1$ und $B_2$, mit Basiswechselmatrix $S := \Mat^{B_1}_{B_2}(\Id_V)$. Weiter sei $M_{} := \Mat_{B_{}}(b)$. Dann
ist
\[
M_1 = S^t·M_\overline{S}.
\]
\end{satz}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

317
07-Euclidian-Unitary.tex Normal file
View File

@ -0,0 +1,317 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 07-Euclidian-Unitary.tex 60 2020-07-01 07:14:02Z kebekus $}
\chapter{Euklidische und unitäre Vektorräume}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\label{sec:7}
\sideremark{Vorlesung 10}Wir haben im Kapitel~\ref{chap:eukl} das
Standardskalarprodukt auf dem $^n$ kennen gelernt. Im
Kapitel~\ref{sec:bskalar} haben wir diesen Begriff auf beliebige
(endlich-dimensionale) reelle und komplexe Vektorräume verallgemeinert. In
diesem Kapitel möchte ich Vektorräume mit Skalarprodukt systematisch diskutieren,
und Begriffe wie ``Norm'', ``Abstand'', ``Metrik'' und ``Orthogonalität'', die
wir zuerst am Beispiel des $^n$ kennen gelernt haben, jetzt in größerer
Allgemeinheit systematisch einführen. Zuerst einmal kommen jede Menge
Definitionen und eine langweilige Rechnung, deshalb auch im Moment kein
Erklärvideo.
\begin{defn}[Euklidische und unitäre Vektorräume]
Ein reeller Vektorraum zusammen mit einem Skalarprodukt (=positiv definiter
symmetrischer Bilinearform) heißt \emph{Euklidischer
Vektorraum}\index{Euklidischer Vektorraum}. Ein komplexer Vektorraum
zusammen mit einem Skalarprodukt (=positiv definiter Hermitescher
Sequilinearform) heißt \emph{unitärer Vektorraum}\index{unitär!Vektorraum}.
\end{defn}
\section{Normen auf Vektorräumen}
In Abschnitt~\ref{sec:end} hatten wir die Euklidische Norm und den Euklidische
Abstand auf dem $^n$ definiert. Jetzt machen wir das allgemein, für
beliebige reelle oder komplexe Vektorräume, und für beliebige Mengen.
\begin{erinnerung}[Betrag einer komplexen Zahl]
Gegeben eine komplexe Zahl $λ = a+b·i ∈ $, dann nennen wir die reelle Zahl
$\sqrt{+} = \sqrt{λ\overline{λ}}$ die \emph{Norm von $λ$}\index{Norm!einer
komplexen Zahl} oder \emph{Betrag von $λ$}\index{Betrag einer komplexen
Zahl} oder \emph{Absolutbetrag von $λ$}\index{Absolutbetrag einer komplexen
Zahl}. Man schreibt auch $\|λ\|$ oder $|λ|$.
\end{erinnerung}
\begin{defn}[Norm auf komplexen oder reellen Vektorraum]\label{def:norm}
Es sei $k = $ oder $k = $ oder $k = $ und es sei $V$ ein $k$-Vektorraum.
Eine \emph{Norm}\index{Norm} auf ist eine Abbildung $\| · \|: V → $, so dass
folgende Eigenschaften gelten.
\begin{description}
\item[Absolute Homogenität] Für alle $\vec{x} ∈ V$ und alle $λ ∈ k$ gilt:
$\| λ · \vec{x} \| = |λ| · \| \vec{x} \|$.
\item[Dreiecksungleichung] Für alle $\vec{x}, \vec{y} ∈ V$ gilt:
$\| \vec{x} + \vec{y} \|\| \vec{x} \| + \| \vec{y} \|$
\item[Positive Definitheit] Für alle $\vec{x} ∈ V$ gilt:
$\| \vec{x} \| = 0\vec{x} = \vec{0}$.
\end{description}
\end{defn}
\begin{notation}[Normierte Vektorräume]
\index{normiert!Vektorraum}Es sei $k = $ oder $k = $ oder $k = $.
Ein normierter $k$-Vektorraum $\bigl( V, \|\|\bigr)$ ist ein
$k$-Vektorraum $V$ zusammen mit einer Norm $\|\|$.
\end{notation}
\begin{notation}[Normierte Vektorräume]
\index{normiert!Vektor}Es sei $k = $ oder $k = $ oder $k = $. und es
sei $\bigl( V, \|\|\bigr)$ ein normierter $k$-Vektorraum. Ein Vektor
$\vec{v} ∈ V$ heißt \emph{normiert}, falls $\|\vec{v}\| = 1$ ist.
\end{notation}
Wir halten gleich zwei wesentliche Eigenschaften von Normen fest, die
unmittelbar aus der Definition folgen.
\begin{bemerkung}[Nicht-negativität von Normen]
In der Situation von Definition~\ref{def:norm} sei $\vec{x} ∈ V$ irgendein
Vektor. Dann gilt
\[
0 = \| \vec{0} \| = \| \vec{x} - \vec{x} \|\| \vec{x} \| + \|
-\vec{x} \| = \| \vec{x} \| + \| \vec{x} \| = 2\| \vec{x} \|.
\]
Also ist $\| \vec{x} \|0$ für alle $\vec{x} ∈ V$.
\end{bemerkung}
\begin{bemerkung}[Satz des Pythagoras]
\index{Pythagoras!für Euklidische und unitäre Vektorräume}In der Situation von
Definition~\ref{def:norm} gilt der Satz des Pythagoras: gegeben Vektoren
$\vec{x}$ und $\vec{y}$ aus $V$, dann gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·Re\langle
\vec{x}, \vec{y} \rangle + \| \vec{y} \|².
\]
\end{bemerkung}
\subsection{Beispiele: Normen, die von Skalarprodukten kommen}
Als erstes und wichtigstes Beispiel von Normen möchte ich zeigen, dass jedes
Skalarprodukt auf einem Vektorraum eine Norm induziert. Also liefern die
Skalarprodukte, die wir in Abschnitt~\ref{sec:skalar} kennen gelernt haben,
sofort Beispiele für Normen.
\begin{satz}[Skalarprodukt induziert Norm]\label{satz:sin}
Wenn $\bigl( V, \langle\rangle\bigr)$ irgendein Euklidischer oder
unitärer Vektorraum ist, dann definiert die Abbildung
\[
\|\| : V → , \quad \vec{x}\sqrt{\langle \vec{x}, \vec{x} \rangle}
\]
eine Norm.
\end{satz}
Der Beweis des Satzes~\ref{satz:sin}, den wir weiter unten geben, ist eine
ziemliche Rechnerei. Der Beweis verwendet die folgende wichtige Ungleichung,
die sie vielleicht aus der Vorlesung ``Analysis'' schon kennen.
\begin{satz}[Cauchy-Schwarzsche Ungleichung]
Sei V unitär oder euklidisch. Dann gilt für alle $\vec{x}, \vec{y}
∈ V$
\[
|\langle \vec{x}, \vec{y} \rangle| ≤ \sqrt{\langle \vec{x},
\vec{x} \rangle} \sqrt{\langle \vec{y}, \vec{y} \rangle} .
\]
\end{satz}
\begin{proof}[Beweis durch unangenehme Rechnerei]
Seien $\vec{x}, \vec{y} ∈ V$ gegeben und es sei $λ$ ein Skalar. Für
$\vec{y} = \vec{0}$ ist die Aussage klar. Sei also $\vec{y}0$. Dann ist
wegen positiver Definitheit der Hermiteschen Form
\begin{align*}
0 ≤ \langle \vec{x} - λ·\vec{y}, \vec{x} - λ·\vec{y} \rangle &= \langle \vec{x}, \vec{x} - λ·\vec{y} \rangle - λ·\langle\vec{y},\vec{x}- λ·\vec{y}\rangle\\
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\langle \vec{x}, \vec{y}\rangle - λ· \langle \vec{y}, \vec{x}\rangle + λ \overline{λ}· \langle \vec{y}, \vec{y} \rangle\\
&= \langle \vec{x}, \vec{x} \rangle - \overline{λ}·\overline{\langle \vec{y}, \vec{x}\rangle} - λ·\langle \vec{y}, \vec{x}\rangle + |λ|²·\langle \vec{y}, \vec{y} \rangle.
\end{align*}
Jetzt betrachte den Spezialfall wo
$λ= \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y},
\vec{y} \rangle}$ ist. Dann ergibt sich
\begin{align*}
&& 0 &\langle \vec{x}, \vec{x} \rangle - \frac{\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle}· \overline{\langle \vec{y}, \vec{x} \rangle} - \frac{\overline{\langle \vec{y}, \vec{x} \rangle}}{\langle \vec{y}, \vec{y} \rangle}· \langle \vec{y}, \vec{x} \rangle + \frac{|\langle \vec{y}, \vec{x} \rangle}{\langle \vec{y}, \vec{y} \rangle²}·\langle \vec{y}, \vec{y} \rangle\\
&& 0 &\langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle - |\langle \vec{y}, \vec{x} \rangle|² - |\langle \vec{y}, \vec{x} \rangle|² + |\langle \vec{y}, \vec{x}\rangle\\
&& |\langle \vec{y}, \vec{x} \rangle&\langle \vec{x}, \vec{x} \rangle· \langle \vec{y}, \vec{y} \rangle\\
&& |\langle \vec{y}, \vec{x} \rangle| &\sqrt{\langle \vec{x}, \vec{x} \rangle}·\sqrt{\langle \vec{y}, \vec{y} \rangle},
\end{align*}
womit der Beweis der Cauchy-Schwarzschen Ungleichung beendet ist.
\end{proof}
\begin{proof}[Beweis von Satz~\ref{satz:sin}]
Um zu zeigen, dass die Abbildung $\|\| : V → $ aus
Satz~\ref{satz:sin} tatsächlich eine Norm ist, müssen wir die drei
Eigenschaften ``absolute Homogenität'', ``Dreiecksungleichung'' und ``positive
Definitheit'' zeigen. Auf geht's.
\bigskip\noindent\emph{Absolute Homogenität.} Es sei $\vec{x} ∈ V$ irgendein
Vektor und es sei $λ$ irgendein Skalar. Dann ist
\[
\| λ·\vec{x} \| = \sqrt{\langle λ·\vec{x}, λ·\vec{x} \rangle} %
= \sqrt{λ \overline{λ}· \langle \vec{x}, \vec{x} \rangle} %
= \sqrt{|λ|²·\langle \vec{x}, \vec{x} \rangle} = |λ|\sqrt{\langle x, x \rangle} = |λ| ·
\| x \| .
\]
Damit ist die absolute Homogenität gezeigt.
\bigskip\noindent\emph{Dreiecksungleichung.} Es seien $\vec{x}, \vec{y} ∈ V$
beliebige Vektoren. Dann folgt mit Hilfe der Cauchy-Schwarz-Ungleichung
folgendes.
\begin{align*}
\| \vec{x} + \vec{y} \|² &= \langle \vec{x}+\vec{y}, \vec{x}+\vec{y} \rangle\\
&= \langle \vec{x}, \vec{x} \rangle + \langle \vec{y}, \vec{y} \rangle + \langle \vec{x}, \vec{y} \rangle + \langle \vec{y}, \vec{x} \rangle\\
&= \| \vec{x} \|² + \| \vec{y} \|² + \langle \vec{x}, \vec{y} \rangle + \overline{\langle \vec{x}, \vec{y} \rangle}\\
&= \| \vec{x} \|² + \| \vec{y} \|² + 2 · Re \langle \vec{x}, \vec{y} \rangle\\
&\| \vec{x} \|² + \| \vec{y} \|² + 2· \| \vec{x} \|· \| \vec{y} \|\\
&= \bigl( \| \vec{x} \| + \| \vec{y} \| \bigr)².
\end{align*}
Wurzelziehen liefert die Dreiecksungleichung.
\bigskip\noindent\emph{Positive Definitheit.} Die positive Definitheit folgt
leicht wegen der positiven Definitheit des Skalarprodukts. Damit ist
Satz~\ref{satz:sin} bewiesen.
\end{proof}
\subsection{Beispiele: Normen, die von Normen kommen}
Normen auf Vektorräumen induzieren Normen auf den Dualräumen und den Hom-Räumen,
die in der angewandten Mathematik und in der Analysis schrecklich wichtig sind.
Ich diskutiere hier nur den einfachsten Fall und verzichte auf alle Beweise (die
ein wenig Analysis voraussetzen).
\begin{bsp}[Operatornorm]\label{bsp:opNorm}
Es seien $\bigl( V, \|\|_V\bigr)$ und $\bigl( W, \|\|_W\bigr)$
zwei endlich-dimensionale, normierte, reelle Vektorräume. Dann definiert die
Abbildung
\[
\|\|_{\operatorname{op}} : \Hom_{}(V,W) → , \quad %
f ↦ \max \{ \|f(\vec{v})\|_W \::\: \vec{v} ∈ V \text{ und }
\|\vec{v}\|_V = 1\}
\]
eine äußerst wichtige Norm auf dem Raum der linearen Abbildungen, genannt
\emph{Operatornorm}\index{Operatornorm}. Die Operatornorm wird in der
angewandten Mathematik für Abschätzungen verwendet. Sie ist deshalb so
nützlich, weil für jeden Vektor $\vec{v} ∈ V$ die Ungleichung
\[
\| f(\vec{v})\|_W ≤ \|f\|_{\operatorname{op}}·\| \vec{v}\|_V
\]
gilt.
\end{bsp}
Im besonders einfachen Fall, wo $W = $ mit der üblichen Norm ist, liefert
Beispiel~\ref{bsp:opNorm} eine Norm auf dem Dualraum.
\begin{bsp}[Norm auf dem Dualraum]
Es sei $\bigl( V, \|\|_V\bigr)$ ein endlich-dimensionaler, normierter,
reeller Vektorraum. Dann definiert die Abbildung
\[
\|\|_{\operatorname{op}} : V^* → , \quad f ↦ \max \{ |f(\vec{v})| \::\: \vec{v} ∈ V \text{ und } \|\vec{v}\|_V = 1\}
\]
eine Norm auf dem Dualraum.
\end{bsp}
\subsection{Weitere Beispiele für Normen}
Es gibt noch einige weitere Beispiele für Normen, die nicht offensichtlich von
Skalarprodukten kommen. Ich nenne (wieder ohne Beweis) zwei der bekanntesten
Beispiele.
\begin{bsp}[Manhattan-Norm]\label{bsp:manhatNorm}
Die Manhattan-Norm auf dem Vektorraum $^n$ ist gegeben als
\[
\|\|_1 : ^n → , \quad
\begin{pmatrix}
x_1 \\ \vdots \\ x_n
\end{pmatrix}
\sum_{i=1}^{n} |x_i| .
\]
\end{bsp}
\begin{bsp}[Maximumsnorm für stetige Funktionen]
Sei $V = \cC([0,1], )$ der reelle Vektorraum der stetigen, reell-wertigen
Funktionen auf dem Einheitsintervall $[0,1]$, dann definiere die
\emph{Maximumsnorm}\index{Maximumsnorm!für stetige Funktionen} wie folgt
\[
\|\|_{} : V → , \quad f ↦ \max\{|f(x)| : 0≤x≤1\} .
\]
\end{bsp}
\begin{bsp}[Einschränkungen von Normen]
Es sei $\bigl( V, \|\|_V\bigr)$ ein normierter Vektorraum und $U ⊆ V$
sei ein Untervektorraum. Dann ist die Einschränkung $\|\|_V|_W$ eine Norma
auf $W$.
\end{bsp}
\section{Metriken}
\sideremark{Vorlesung 11}Genau wie in Abschnitt~\ref{sec:end} können wir mit
Hilfe einer Norm einen Begriff von ``Abstand'' oder ``Metrik'' definieren. Der
Begriff ``Metrik'' ist aber viel allgemeiner und hat nichts mit Vektorräumen zu
tun; wir definieren Metriken ganz allgemein auf beliebigen Mengen.
\begin{defn}[Metrik]
Sei $M$ eine Menge. Eine Metrik\index{Metrik} auf $M$ ist eine Abbildung
$d: M M → $, so dass Folgendes gilt.
\begin{description}
\item[Symmetrie] Für alle $x, y ∈ M$ gilt: $d(x,y) = d(y,x)$.
\item[Dreiecksungleichung] Für alle $x, y, z ∈ M$ gilt: $d(x,z) ≤ d(x,y) + d(y,z)$
\item[Positive Definitheit] Für alle $x, y ∈ M$ gilt: $d(x,x)0$. Zusätzlich
gilt: $d(x,y) = 0 ⇔ x = y$.
\end{description}
\end{defn}
\begin{bsp}[Metriken, die von Normen kommen]
Wenn ich auf einem reellen oder komplexen Vektorraum $V$ eine Norm habe, dann
kann ich eine Metrik definieren durch
\[
d(\vec{x},\vec{y}) := \| \vec{x} - \vec{y} \| .
\]
Diese Metrik heißt \emph{von der Norm induziert}\index{Metrik!von Norm
induziert}. Alle Beispiele von Normen liefern also automatisch sofort auch
Beispiele für Metriken. Die Metrik, die man aus Beispiel~\ref{bsp:manhatNorm}
erhält, heißt
\emph{Manhattan-Metrik}\index{Manhattan-Metrik}\index{Metrik!Manhattan}; siehe
auch \href{https://de.wikipedia.org/wiki/Manhattan-Metrik}{hier}.
\end{bsp}
Es ist aber nicht richtig, dass jede Metrik von einer Norm induziert
wird. Schauen Sie sich das folgende Beispiel an.
\begin{bsp}[Diskrete Metrik]
Es sei $M$ eine Menge, zum Beispiel $M = ^n$. Dann definiere eine Metrik
durch
\[
d: M M → ,\quad (x,y) ↦
\left\{
\begin{matrix}
0 & \text{falls $x=y$} \\1 & \text{sonst}
\end{matrix}
\right.
\]
Diese Metrik ist echt doof und heißt \emph{diskrete Metrik}\index{diskrete
Metrik}\index{Metrik!diskrete}.
\end{bsp}
\begin{bsp}[Einschränkungen von Metriken]
Sei $M$ eine Menge und $d: M M → $ sei eine Metrik. Wenn $N ⊆ M$
irgendeine Teilmenge ist, dann ist die Einschränkung $d|_{N N}$ eine
Metrik auf $N$.
\end{bsp}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

490
08-Orthogonal.tex Normal file
View File

@ -0,0 +1,490 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 08-Orthogonal.tex 42 2020-06-02 13:28:35Z kebekus $}
\chapter{Orthogonale Projektion}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
In diesem Kapitel sei $\bigl( V, \langle\rangle\bigr)$ stets ein
euklidischer oder unitärer Vektorraum. Wenn keine Verwechselungsgefahr besteht,
werden wir die durch das Skalarprodukt induzierte Norm einfach mit $\|\|$
bezeichnen.
\section{Orthogonalität und Orthonormalität}
Der zentrale Begriff in diesem Kapitel ist ``orthogonal'', also
``steht senkrecht aufeinander''. Wir definieren ``orthogonal'' mit Hilfe des
Skalarproduktes.
\begin{defn}[Orthogonal]\label{def:orth}
Es sei $\bigl( V, \langle\rangle\bigr)$ ein Euklidischer oder unitärer
Vektorraum.
\begin{enumerate}
\item Es seien $\vec{x}$, $\vec{y} ∈ V$ zwei Vektoren. Man sagt,
\emph{$\vec{x}$ und $\vec{y}$ sind orthogonal
zueinander}\index{orthogonal!Vektoren} (oder \emph{$x$ steht senkrecht auf
$y$})\index{senkrecht}, falls $\langle \vec{x}, \vec{y} \rangle = 0$ gilt.
Als Kurzschreibweise: $\vec{x} \perp \vec{y}$.
\item Es seien $U$, $W ⊂ V$ Untervektorräume. Dann heißen $U$ und $W$
\emph{orthogonal zueinander}\index{orthogonal!Untervektorräume}, falls für
alle $\vec{u} ∈ U$ und alle $\vec{w} ∈ W$ die Gleichung
$\langle \vec{u}, \vec{w} \rangle = 0$ gilt.
\item\label{il:8-1-1-3} Es sei $U ⊂ V$ ein Untervektorraum. Dann
definieren wir das \emph{orthogonale Komplement von $U$}\index{orthogonales
Komplement} als
\[
U^\perp := \{ \vec{v} ∈ V : \vec{v} \perp \vec{u} \text{ für alle }
\vec{u} ∈ U \}.
\]
\item Eine Familie $\{ \vec{v}_i \}_{i ∈ I}$ von Vektoren aus $V$ heißt
\emph{orthogonal}\index{orthogonal!Familie von Vektoren}, falls für alle
Indizes $i ≠ j$ die folgende Gleichung gilt:
\[
\langle \vec{v}_i, \vec{v}_j \rangle = 0.
\]
Eine orthogonale Familie heißt \emph{orthonormal}\index{orthonormale Familie
von Vektoren}, falls zusätzlich für alle Indizes $i ∈ I$ die Gleichung
$\| \vec{v}_i \| = 1$ gilt. Eine orthonormale Familie heißt
\emph{Orthonormalbasis}\index{Orthonormalbasis} (kurz: ``ONB''), falls sie
zusätzlich eine Basis ist.
\end{enumerate}
\end{defn}
\begin{beobachtung}[Orthogonale Komplemente sind Untervektorräume]
In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} ist das
orthogonale Komplement $U^\perp$ wieder ein Untervektorraum von $V$.
\end{beobachtung}
\begin{beobachtung}
In der Situation von Definition~\ref{def:orth}, Punkt~\ref{il:8-1-1-3} gilt
folgendes: Wenn $(u_i)_{i ∈ I}$ eine Basis von $U$ ist und $\vec{v} ∈ V$
irgendein Vektor, dann ist $\vec{v} ∈ U^\perp$ genau dann, wenn
$\vec{v} \perp \vec{u}_i$ ist für alle Indizes $i ∈ I$.
\end{beobachtung}
\begin{rem}[Orthogonale Unterräume in LA1 - Dualraum]\label{rem:8-1-4}
Wir hatten in Kapitel 12 der Vorlesung ``Lineare Algebra I'' bereits einen
Begriff von ``orthogonalen Unterraum''. Die Situation war die, dass es einen
$k$-Vektorraum $V$ gab und einen Untervektorraum $W ⊆ V$. In dieser
Situation war der ``orthogonale Unterraum'' der Raum
\[
W⁰ := \{ f ∈ V^* \::\: W ⊆ \ker (f) \}.
\]
Manchmal hatte ich auch $W^\perp$ statt $W⁰$ geschrieben. Wir werden in
Abschnitt~\vref{sec:dual} sehen, wie die Begriffe zusammenhängen.
\end{rem}
\begin{bsp}[Der Standardraum $^n$]
Betrachten den Vektorraum $^n$ mit dem Standardskalarprodukt. Dann ist die
Die Standardbasis eine Orthonormalbasis. Die Untervektorräume
$\langle \vec{e}_1, \vec{e}_2 \rangle$ und
$\langle \vec{e}_3, \vec{e}_4 \rangle$ sind orthogonal. Das orthogonale
Komplement des Unterraumes $\langle \vec{e}_1, \vec{e}_2 \rangle$ ist
$\langle \vec{e}_3, …, \vec{e}_n \rangle$.
\end{bsp}
\section{Orthonormale Basisergänzung}
Das folgende Beispiel zeigt, wie man zwei beliebige Vektoren orthogonal machen
kann. Dieses Beispiel ist für den ganzen Abschnitt zentral.
\begin{bsp}[Rezept, um Vektoren orthogonal machen]
Es sei $\bigl( V, \langle\rangle\bigr)$ ein euklidischer oder unitärer
Vektorraum und es seien $\vec{v}_1$, $\vec{v}_2 ∈ V$ zwei Vektoren mit
$\vec{v}_1 \ne \vec{0}$. Setze
\[
\vec{v}\,'_2 := \vec{v}_2 - \frac{\langle \vec{v}_2, \vec{v}_1
\rangle}{\langle \vec{v}_1, \vec{v}_1 \rangle}·\vec{v}_1.
\]
Dann gilt $\vec{v}_1 \perp \vec{v}\,'_2$. Zusätzlich gilt: wenn die Menge
$\{\vec{v}_1, \vec{v}_2\}$ linear unabhängig ist, dann auch
$\{\vec{v}_1, \vec{v}\,'_2\}$.
\end{bsp}
Wir bauen das ``Rezept, um Vektoren orthogonal machen'' ein wenig aus und
erhalten einen ``Basisergänzungssatz für Orthonormalbasen''.
\begin{satz}[Basisergänzungssatz für Orthonormalbasen]\label{satz:8-2-2}
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum und sei
$U ⊂ V$ ein Untervektorraum. Dann lässt sich jede Orthonormalbasis
$\{\vec{u}_1,…,\vec{u}_m\}$ von $U$ zu einer Orthonormalbasis
$\{\vec{u}_1,…,\vec{u}_m,\vec{u}_{m+1},…,\vec{u}_n\}$ von $V$
ergänzen.
\end{satz}
\begin{proof}
\video{11-1}
\end{proof}
\begin{kor}[Existenz von Orthonormalbasen]
Jeder endlich-dimensionale euklidische oder unitäre Vektorraum besitzt eine
Orthonormalbasis. \qed
\end{kor}
\begin{beobachtung}[Gram-Schmidt Verfahren]
Sei $V$ ein endlich-dimensionaler euklidischer oder unitärer Vektorraum. Der
Beweis des Basisergänzungssatzes~\ref{satz:8-2-2} für Orthonormalbasen liefert
ein effektives, induktives Verfahren um aus einer gegebenen Basis
$\{ \vec{v}_1, …, \vec{v}_n \}$ von $V$ eine ONB
$\{ \vec{u}_1, …, \vec{u}_n \}$ zu konstruieren. Man startet so:
\begin{itemize}
\item Normiere. $\vec{u}_1 := \frac{1}{\| \vec{v}_1 \|}·\vec{v}_1$.
\item Definiere.
$\vec{u}\,'_2 := \vec{v}_2 - \langle \vec{v}_2, \vec{u}_1 \rangle·
\vec{u}_1$.
\item Normiere. $\vec{u}_2 := \frac{1}{\| \vec{u}\,'_2 \|}·\vec{u}\,'_2$.
\end{itemize}
Falls uns $\vec{u}_1, …, \vec{u}_k$ schon gegeben sind, gehe induktiv wie
folgt vor:
\begin{itemize}
\item Definiere.
$\vec{u}\,'_{k+1} := \vec{v}_{k+1} - \sum_{j=1}^{k} \langle \vec{v}_{k+1},
\vec{u}_j \rangle·\vec{u}_j$.
\item Normiere.
$\vec{u}_{k+1} := \frac{1}{\| \vec{u}\,'_{k+1} \|}·\vec{u}\,'_{k+1}$.
\end{itemize}
Am Ende ist $\{\vec{u}_1, …, \vec{u}_n\}$ eine ONB. Zusätzlich gilt für
alle Indizes $i=1, …, n$ die Gleichheit von Untervektorräumen
$\langle \vec{u}_1, …, \vec{u}_i \rangle = \langle \vec{v}_1, …,
\vec{v}_i \rangle$.
\end{beobachtung}
\begin{satz}[Orthogonale Zerlegung]\label{satz:8-2-5}
Es sei $V$ ein endlich-dimensionale euklidischer oder unitärer Vektorraum.
Weiter sei $U ⊂ V$ ein Untervektorraum. Dann lässt sich jeder Vektor
$\vec{v} ∈ V$ eindeutig schreiben als
\[
\vec{v} = p(\vec{v}) + r(\vec{v}),
\]
wobei $p(\vec{v}) ∈ U$ ist und $r(\vec{v}) ∈ U^\perp$ ist.
\end{satz}
\begin{proof}
\video{11-2}
\end{proof}
Der Beweis von Satz~\ref{satz:8-2-5} liefert noch eine ganze Reihe von
Zusatzinformationen, die wir hier festhalten. Das allerwichtigste ist die
Einsicht, dass $p$ eine lineare Abbildung liefert, die wir als ``orthogonale
Projektion'' bezeichnen.
\begin{beobachtung}[Orthogonale Projektion]
In der Situation von Satz~\ref{satz:8-2-5} können wir die $p(\vec{v})$ wie
folgt ausrechnen. Wenn eine ONB $(\vec{u}_i)_i$ von $U$ gegeben ist, dann ist
\[
p(\vec{v}) = \sum_i \langle \vec{v}, \vec{u}_i \rangle·\vec{u}_i
\]
Insbesondere ist $p : V → U$ eine lineare Abbildung und es ist
$\ker p = U^\perp$. Man nennt $p$ die \emph{orthogonale Projektion auf den
Unterraum $U$}\index{orthogonale Projektion}.
\end{beobachtung}
\begin{beobachtung}[Orthogonale Projektion minimiert Abstand zu Untervektorraum]
In der Situation von Satz~\ref{satz:8-2-5} ist $p(\vec{v})$ genau derjenige
Punkt aus $U$, der den kleinsten Abstand zu $\vec{v}$ hat. Denn: Für
$\vec{w} ∈ U$, $\vec{w}0$ gilt mit Pythagoras die folgende Ungleichung
\begin{align*}
\| (p(\vec{v}) + \vec{w}) - \vec{v} \|² & = \| p(\vec{v})-\vec{v} \|² + \| \vec{w} \|² + \underbrace{\langle p(\vec{v})-\vec{v}, \vec{w} \rangle}_{=0} + \underbrace{\langle \vec{w}, p(\vec{v})-\vec{v} \rangle}_{=0} \\
&\| p(\vec{v})-\vec{v} \|².
\end{align*}
\end{beobachtung}
\section{Kanonische Identifikationen}
\subsection{Der Dualraum}
\label{sec:dual}
\sideremark{Vorlesung 12}Einer der beliebtesten Begriffe der Vorlesung ``Lineare
Algebra I'' ist der des ``Dualraum''. Alle Studenten lieben das. Ich erinnere:
wenn $k$ ein Körper ist und $V$ ein $k$-Vektorraum, dann ist der Dualraum $V^*$
genau der Vektorraum der linearen Abbildungen von $V$ nach $k$. In Symbolen:
$V^* := \Hom(V,k)$. Falls $V$ endlich-dimensional ist, haben wir bewiesen, dass
$V$ und $V^*$ isomorph zueinander sind. Um einen konkreten Isomorphismus zu
finden wählte man erst einmal eine Basis $B = \{\vec{v}_1, …, \vec{v}_n\}$ und
betrachtet dann die duale Basis $B^* = \{\vec{v}^{\:*}_1, …, \vec{v}^{\:*}_n\}$
von $V^*$. Dabei waren die $\vec{v}^{\:*}_i : V → k$ diejenigen linearen
Abbildungen, die die Gleichungen
\[
\vec{v}^{\:*}_i(\vec{v}_j) = δ_{ij}
\]
für alle Indizes $j$ erfüllen. Der Satz vom Wünsch-Dir-Was sagt genau, dass
solche $\vec{v}^{\:*}_i$ existieren und durch die Gleichungen eindeutig bestimmt
sind; wir haben in LA1 durch direkte Rechnung bewiesen, dass $B^*$ eine Basis
von $V^*$ ist. Die Koordinatenabbildungen zu $B$ und $B^*$ liefern dann
Isomorphismen
\[
\begin{tikzcd}
V \ar[r, "Φ_B"] & k^n & V^* \ar[l, "Φ_{B^*}"']
\end{tikzcd}
\]
und also eine Isomorphie von $V$ und $V^*$. Das große Problem bei der Sache
war, dass die Isomorphie von der Wahl der Basis abhing, also nicht kanonisch
war. Die zentrale Einsicht in dieser Vorlesung folgende: wenn ich auf $V$ ein
Skalarprodukt festlege, dann gibt es eine kanonische Identifikation von $V$ und
$V^*$.
\begin{satz}\label{satz:8-3-1}
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
endlich-dimensionaler euklidischer Vektorraum. Dann ist die Abbildung
\[
s: V → V^*, \quad \vec{v}\langle • ,\vec{v} \rangle
\]
ein Isomorphismus.
\end{satz}
\video{12-1} erläutert noch einmal, was der Satz~\ref{satz:8-3-1} genau sagt.
\begin{proof}[Beweis von Satz~\ref{satz:8-3-1}]
\video{12-2}
\end{proof}
In Bemerkung~\ref{rem:8-1-4} hatte ich schon versprochen, den Zusammenhang
zwischen den ``orthogonalen Unterräumen'' aus der Vorlesung ``Lineare Algebra
I'' und dem ``orthogonalen Komplement'' aus Definition~\ref{def:orth} zu klären.
Der folgende Satz löst dieses Versprechen ein.
\begin{satz}[Orthogonales Komplement und orthogonale Unterräume]\label{satz:8-3-3}
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
Untervektorraum. Weiter sei $s : V → V^*$ der kanonische Isomorphismus aus
Satz~\ref{satz:8-3-1}. Dann gilt folgendes.
\begin{enumerate}
\item\label{il:8-3-1-1} Es ist $s(U^\perp) = U⁰$. Insbesondere liefert die
Einschränkung $s|_{U^\perp} : U^\perp → U⁰$ einen Isomorphismus zwischen
den Vektorräumen $U^\perp$ und $U⁰$ und insbesondere ist
$\dim U^\perp = \dim U⁰$ (…nämlich gleich $\dim V - \dim U$).
\item\label{il:8-3-1-2} Es existiert eine Zerlegung von $V$ in eine direkte
Summe $V = U ⊕ U^\perp$.
\end{enumerate}
\end{satz}
\begin{proof}
\video{12-3}
\end{proof}
\begin{kor}\label{kro:8-3-3}
In der Situation von Satz~\ref{satz:8-3-1} gilt die Gleichheit
$\bigl( U^\perp \bigr)^\perp = U$.
\end{kor}
\begin{proof}
Es genügt, die Inklusion $U ⊂ \bigl( U^\perp \bigr)^\perp$ zu zeigen; die
Gleichheit folgt mit Hilfe der Dimensionsformel~\ref{il:8-3-1-2} dann aus der
Gleichheit der Dimensionen. Dazu verwende ich wieder meinen Textbaustein: Sei
ein beliebiger Vektor $\vec{u} ∈ U$ gegeben. Die Aussage
``$\vec{u}\bigl( U^\perp \bigr)^\perp$ ist dann per Definition äquivalent
dazu, ist zu zeigen, dass gilt:
\[
s(\vec{u}, \vec{v}) = 0, \quad \text{für alle }\vec{v} ∈ U^\perp
\]
Das ist aber klar nach Definition von $U^\perp$.
\end{proof}
\begin{rem}
In unendlich-dimensionalen Vektorräumen ist die Aussage von
Korollar~\ref{kro:8-3-3} im Allgemeinen falsch!
\end{rem}
\subsubsection{Unitäre Vektorräume}
Die Aussage von Satz~\ref{satz:8-3-1} gilt in leicht abgewandelter Form auch für
den Fall von unitären Vektorräumen. Falls
$\bigl(V, \langle •, • \rangle \bigr)$ ein endlich-dimensionaler
unitärer Vektorraum ist, dann ist die Abbildung $s$ bijektiv und
\emph{semi-linear}\index{semi-lineare Abbildung}. Dabei bedeutet
``semi-linear'', dass für alle Vektoren $\vec{x}$ und $\vec{y} ∈ V$ und alle
Skalare $λ ∈ $ die Gleichungen
\[
f(\vec{x}+\vec{y}) = f(\vec{x}) + f(\vec{y}) \quad\text{und}\quad
f(λ·\vec{x}) = \overline{λ}·f(\vec{x}).
\]
gelten.
\begin{aufgabe}[Kanonische Identifikationen für unitäre Vektorräume]
Schreiben Sie einen schulbuchmäßigen Beweis von Satz~\ref{satz:8-3-1} im Fall
von unitären Vektorräumen.
\end{aufgabe}
\begin{aufgabe}[Kanonische Identifikationen für unitäre Vektorräume]
Überlegen Sie sich, ob (und wenn ja: wie) Satz~\ref{satz:8-3-3} im Falle von
unitären Vektorräumen abgewandelt werden muss. Formulieren Sie den Satz und
schreiben Sie einen schulbuchmäßigen Beweis auf.
\end{aufgabe}
\begin{aufgabe}[Kanonische Identifikationen für unitäre Vektorräume]
Überlegen Sie sich, ob (und wenn ja: wie) Korollar~\ref{kro:8-3-3} im Falle
von unitären Vektorräumen abgewandelt werden muss. Formulieren Sie den Satz
und schreiben Sie einen schulbuchmäßigen Beweis auf.
\end{aufgabe}
\subsection{Quotientenräume}
Wir hatten in letzten Abschnitt das orthogonale Komplement eines
Untervektorraumes $U ⊂ V$ in kanonischer Weise mit dem Raum $U⁰$
identifiziert, der uns aus der Vorlesung ``Lineare Algebra I'' vertraut war. Es
gibt noch eine andere kanonische Identifikation des orthogonale Komplements mit
einem bekannten Vektorraum.
\begin{satz}\label{satz:8-3-6}
Es sei $\bigl(V, \langle •, • \rangle \bigr)$ ein
endlich-dimensionaler euklidischer Vektorraum und es sei $U ⊂ V$ ein
Untervektorraum. Dann gibt es einen kanonischen Isomorphismus zwischen dem
Vektorraumquotienten $\factor{V}{U}$ und dem orthogonalen Komplement
$U^\perp$.
\end{satz}
\begin{proof}
\video{12-4}
\end{proof}
\begin{aufgabe}[Kanonische Identifikationen für unitäre Vektorräume]
Überlegen Sie sich, ob (und wenn ja: wie) Satz~\ref{satz:8-3-6} im Falle von
unitären Vektorräumen abgewandelt werden muss. Formulieren Sie den Satz und
schreiben Sie einen schulbuchmäßigen Beweis auf.
\end{aufgabe}
\section{Die adjungierte Abbildung}
\label{sec:adAbb}
Wir betrachten in diesem Abschnitt Abbildungen von euklidischen Vektorräumen und
schauen, wie sich die kanonischen Identifikationen aus dem letzten Abschnitt
unter Abbildungen verhalten --- das wird später noch sehr wichtig werden, wenn
wir ``selbstadjungierte Abbildungen'' diskutieren. Zuallererst legen wir die
Situation fest, die wir in diesem Abschnitt genau betrachten.
\begin{situation}[Mehrere euklidische Vektorräume]\label{sit:8-5-1}
Es seien $\bigl(V, \langle •, • \rangle_V \bigr)$ und
$\bigl(W, \langle •, • \rangle_W \bigr)$ zwei endlich-dimensional
euklidische Vektorräume. Die kanonischen Identifikationen der Räume mit ihren
Dualräumen bezeichnen wir mit
\[
s_V: V → V^* \quad\text{und}\quad s_W: W → W^*.
\]
\end{situation}
\begin{erinnerung}
Zu jeder linearen Abbildung $f: V → W$ haben wir in der Vorlesung ``Lineare
Algebra I'' eine ``Rückzugsabbildung'' zwischen den Dualräumen definiert, nämlich
\[
f^* : W^* → V^*, \quad φ ↦ φ◦f.
\]
\end{erinnerung}
\begin{beobachtung}[Kanonische Identifikationen und Rückzugsabbildung]\label{beob:8-5-3}
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
Betrachte das folgende Diagramm:
\begin{equation}\label{eq:8-5-3-1}
\begin{tikzcd}[column sep=3cm]
V \arrow[r, "f"] \arrow[d, "s_V\text{, isomorph}"'] & W \arrow[d, "s_W\text{, isomorph}"]\\
V^* & W^* \arrow[l, "f^*\text{, Rückzugsabbildung}"]
\end{tikzcd}
\end{equation}
Beim Betrachten des Diagramms~\eqref{eq:8-5-3-1} fällt auf, dass die
Abbildungen $s_V$ und $s_W$ von der Wahl der Skalarprodukte abhängen. Die
Abbildungen $f$ und $f^*$ hängen nicht von der Wahl der Skalarprodukte ab.
Daher können wir im Allgemeinen \emph{nicht} erwarten, dass das
Diagramm~\eqref{eq:8-5-3-1} kommutiert. Mit anderen Worten, wir können im
Allgemeinen \emph{nicht} erwarten, dass die Abbildungen $s_V$ und
$f^*◦ s_W ◦ f$ besteht. Wir interessieren uns aber für Bedingungen,
die Gleichheit der Abbildungen sicherstellen! Dazu beobachten wir, dass die
Abbildungen $s_V$ und $f^*◦ s_W ◦ f$ gleich sind, falls für alle
$\vec{v} ∈ V$ die folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
\begin{equation}\label{eq:8-5-3-2}
s_V(\vec{v}) = \bigl(f^*◦ s_W ◦ f\bigr)(\vec{v})
\end{equation}
Das lässt sich expliziter hinschreiben, indem ich die Definitionen von $s_V$,
$s_W$ und $f^*$ einsetze. Dann erhalte ich: die Abbildungen $s_V$ und
$f^*◦ s_W ◦ f$ sind gleich, falls für alle $\vec{v} ∈ V$ die
folgende Gleichheit von Elementen im Dualraum $V^*$ gilt,
\begin{align*}
\langle •, \vec{v} \rangle_V %
= f^* ◦ \bigl\langle •, f(\vec{v}) \bigr\rangle_W %
= \bigl\langle f(•), f(\vec{v}) \bigr\rangle_W.
\end{align*}
Das lässt sich noch einfacher formulieren: die Abbildungen $s_V$ und
$f^*◦ s_W ◦ f$ sind gleich, falls für alle
$\vec{v}_1, \vec{v}_2 ∈ V$ die folgende Gleichheit von Skalaren gilt,
\begin{align*}
\langle \vec{v}_1, \vec{v}_2 \rangle_V %
= \bigl\langle f(\vec{v}_1), f(\vec{v}_2) \bigr\rangle_W.
\end{align*}
Etwas unpräzise können wir zusammenfassend sagen: das
Diagramm~\eqref{eq:8-5-3-1} kommutiert genau dann, wenn die Abbildung $f$ die
Skalarprodukte respektiert.
\end{beobachtung}
Die folgende Definition hilft, Beobachtung~\ref{beob:8-5-3} zu formalisieren.
\begin{defn}[Adjungierte Abbildung]
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
Die Kompositionsabbildung
\[
s^{-1}_V◦f^*◦s_W : W → V
\]
heißt \emph{die an $f$ adjungierte Abbildung}\index{adjungierte Abbildung} und
wird mit dem Symbol $f^{\ad}$ bezeichnet.
\end{defn}
\begin{satz}[Einfache Eigenschaften der adjungierten Abbildung]\label{satz:8-4-5}
In Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$ gegeben.
Dann gilt folgendes.
\begin{enumerate}
\item Die Abbildung $f^{\ad} : W → V$ ist linear.
\item\label{il:8-5-4-2} Für alle Vektoren $\vec{v} ∈ V$ und $\vec{w} ∈ W$ gilt
die folgende Gleichheit von Skalaren,
\[
\left\langle f(\vec{v}), \vec{w} \right\rangle_W %
= \left\langle \vec{v}, f^{\text{ad}}(\vec{w}) \right\rangle_V
\]
\end{enumerate}
\end{satz}
\begin{proof}
\sideremark{Vorlesung 13}\video{13-1}
\end{proof}
\begin{prop}\label{prop:8-4-6}
In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$
gegeben. Dann ist $f^{\ad} : W → V$ die einzige lineare Abbildung $W → V$,
die Eigenschaft~\ref{il:8-5-4-2} erfüllt.
\end{prop}
\begin{proof}
\video{13-2}
\end{proof}
\begin{kor}
In der Situation~\ref{sit:8-5-1} sei eine lineare Abbildung $f: V → W$
gegeben. Dann ist $(f^{\ad})^{\ad} = f$.
\end{kor}
\begin{proof}
Das folgt aus Proposition~\ref{prop:8-4-6}; Details sind Hausaufgabe.
\end{proof}
\subsection{Unitäre Vektorräume}
Die Aussagen dieses Abschnittes gelten in leicht abgewandelter Form auch für
unitäre Vektorräume.
\begin{aufgabe}[Adjungierte Abbildung für unitäre Vektorräume]
Finden sie heraus, welche Aussagen genau gelten und schreiben Sie
schulbuchmäßige Beweise dieser Aussagen auf.
\end{aufgabe}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

449
09-Orthogonal-Unitary.tex Normal file
View File

@ -0,0 +1,449 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 09-Orthogonal-Unitary.tex 72 2025-04-07 10:51:21Z kebekus $}
\chapter{Orthogonale und unitäre Endomorphismen}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\section{Orthogonale und unitäre Abbildungen}
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands'' kennen
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
die folgende Situation.
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus.
\end{situation}
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
beziehungsweise
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
\[
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
\rangle.
\]
\end{defn}
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
Transformation des $^n$ bezüglich des Euklidischen Abstands das
Standardskalarprodukt erhält. Damit ist klar, dass
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands'') ein Spezialfall von
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
vorliegende Skript einigermaßen konsistent!
\end{beobachtung}
\begin{bsp}
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
``orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands''
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
eine Matrix die an Achsen dreht oder spiegelt.
\end{bsp}
\begin{aufgabe}[Andere Definition in der Literatur]
Situation wie in \ref{sit:9-1-1}. In der Literatur finden Sie manchmal eine
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
\[
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
\]
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe}
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
unitär. Dann gilt Folgendes.
\begin{enumerate}
\item Für alle $\vec{v} ∈ V$ gilt $\| f(\vec{v}) \| = \| \vec{v} \|$.
\item\label{il:9-1-7-2} Falls $λ$ ein Eigenwert von $f$ ist, so gilt
$|λ| = 1$.
\item\label{il:9-1-7-3} Für alle $\vec{v}, \vec{w} ∈ V$ gilt:
$\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w})$.
\item Die Abbildung $f$ ist injektiv.
\item Die Abbildung $f$ ist isomorph und $f^{-1}$ ist ebenfalls orthogonal
beziehungsweise unitär.
\end{enumerate}
\end{proposition}
\begin{proof}
\video{13-3}
\end{proof}
\begin{rem}[Die Determinante]\label{rem:9-1-7}
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
Frage.
\end{rem}
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
\[
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
\]
Zeigen Sie anhand eines einfachen Beispiels, das dies \emph{nicht} mit
Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe}
\subsection{Die Gruppenstruktur}
Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes
$\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
\index{unitäre Gruppe!eines unitären Vektorraumes}.
\end{defn}
\section{Orthogonale und unitäre Matrizen}
Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
$^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
\begin{enumerate}
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
$Q^t·Q = \Id_{n n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n n}$.
\end{enumerate}
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
wie immer für die komplex-konjugierte Matrix.
\end{aufgabe}
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
erweitern.
\begin{defn}[Orthogonale und unitäre Matrizen]
Es sei $n ∈ $.
\begin{enumerate}
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
$A^{-1} = A^t$ gilt.
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
$A^{-1} = \overline{A^t}$ gilt.
\end{enumerate}
\end{defn}
\begin{notation}[Orthogonale und unitäre Gruppen]
Es sei $n ∈ $. Dann betrachte folgende Untergruppen von $Gl_n()$
beziehungsweise $Gl_n()$.%
\index{orthogonale Gruppe!Matrizen}\index{spezielle orthogonale Gruppe}\index{unitäre Gruppe!Matrizen}
\begin{align*}
\mathcal{O}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
\mathcal{U}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
\end{align*}
Der
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
Gruppen handelt.
\end{notation}
\begin{proposition}[Einfache Eigenschaften]
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise
$A ∈ \Mat(n n, )$. Dann sind folgende Aussagen äquivalent.
\begin{enumerate}
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
\item\label{il:9-2-4-2} Alle Spaltenvektoren von $A$ haben Norm $1$ und stehen
senkrecht aufeinander.
\item\label{il:9-2-4-3} Alle Zeilenvektoren von $A$ haben Norm $1$ und stehen
senkrecht aufeinander.
\end{enumerate}
\end{proposition}
\begin{proof}
Wir diskutieren nur den orthogonalen Fall. Um die Äquivalenz von
\ref{il:9-2-4-1} und \ref{il:9-2-4-2} zu zeigen, schreibe die Matrix $A$ durch
Spaltenvektoren $\vec{s}_i$. Dann ist
\[
A = (\vec{s}_1, \vec{s}_2, …, \vec{s}_n), \quad
A^t = \begin{pmatrix} \vec{s}^{\:t}_1\\ \vdots \\ \vec{s}^{\:t}_n \end{pmatrix}, \quad \text{und} \quad
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
\]
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
betrachte dann $A · A^t$.
\end{proof}
\section{Normalformen unitärer Endomorphismen}
Wir haben orthogonale und unitäre Endomorphismen und Matrizen diskutiert, haben
aber im Moment vermutlich noch eine Idee, wie wir uns die Endomorphismen
vorstellen sollen. In diesem Abschnitt diskutiere ich unitäre Endomorphismen;
im nächsten Abschnitt diskutieren wir dann den orthogonalen Fall. Wie immer
zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist und
über den reellen Zahlen komplizierter wird.
\begin{satz}[Unitäre Endomorphismen sind diagonalisierbar]
In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär. Dann gibt es eine
Orthonormalbasis aus Eigenvektoren von $f$. Insbesondere ist der
Endomorphismus $f$ diagonalisierbar.
\end{satz}
\begin{proof}
\video{13-4}
\end{proof}
\sideremark{Vorlesung 14}In Wirklichkeit geht noch mehr.
\begin{satz}[Unitäre Endomorphismen sind diagonalisierbar]
In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär. Wir bezeichnen die
Eigenwerte von $f$ mit $λ_1, …, λ_i$. Dann gibt es eine Zerlegung von $V$ als
direkte Summe,
\[
V = \bigoplus_i V_{λ_i},
\]
wobei die Eigenräume zueinander orthogonal sind.
\end{satz}
\begin{proof}
\video{14-1}
\end{proof}
\section{Normalformen orthogonaler Matrizen}
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
die orthogonalen $2 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, so dass folgende
Gleichung gilt.
\[
A =
\left\{
\begin{matrix}
\begin{pmatrix} \cos α &-\sin α \\ \sin α & \hphantom{-}\cos α \end{pmatrix} & \text{falls } \det A = \hphantom{-}1 \\[5mm]
\begin{pmatrix} \cos α &\hphantom{-}\sin α \\ \sin α & -\cos α \end{pmatrix} & \text{falls } \det A = -1
\end{matrix}
\right.
\]
\end{satz}
\begin{proof}
\video{14-2}
\end{proof}
\begin{erkl}[Geometrische Bedeutung der Matrizen aus Satz~\ref{satz:9-2-7}]
\video{14-3} und \video{14-4} erklären Ihnen, was die Matrizen aus
Satz~\ref{satz:9-2-7} geometrisch-anschaulich bedeuten. Damit ist dann auch
gleich klargestellt, was die geometrische Bedeutung der Gruppe
$\mathcal{SO}_2$ ist, und wie der Unterschied zwischen $\mathcal{O}_2$ und
$\mathcal{SO}_2$ verstanden werden kann. Oder vielleicht wissen Sie das
schon?
\end{erkl}
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
sind.
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
folgende Blockgestalt hat
\[
\begin{pmatrix}
\Id_{a a} & \\
& -\Id_{b b} \\
& & A_1 \\
& & & \ddots \\
& & & & A_k \\
\end{pmatrix}
\]
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
$\Id_{}$ jeweils jeweils Einheitsmatrizen der
entsprechenden Größe sind.
\end{satz}
\subsection{Vorbereitung zum Beweis von Satz~\ref{satz:9-2-9}: Komplexifizierung}
Wir beweisen Satz~\ref{satz:9-2-9} weiter unten. Zuerst kommt eine
Vorbereitung. Dabei geht es wieder einmal darum, dass reelle Vektorräume
kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
einen komplexen Vektorraum $V^{}$ wie folgt: wir betrachten die Menge
$V^{} := V V$ und definieren eine Addition durch komponentenweise
Addition
\[
+ : (V V) (V V) → V V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
\]
und eine skalare Multiplikation durch folgende Abbildung
\[
· : (V V) → V V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
\]
Rechnen Sie nach, dass dies tatsächlich eine $$-Vektorraum ist, wen wir als
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
Vektorraumes} bezeichnen.
\end{konstruktion}
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+\vec{w}$, dann
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
komplexifiziertem Vektorraum}
\[
\overline{} : V V → V V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
\]
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
Vektorraum in seine Komplexifizierung}
\[
ι : V → V^{\bC}, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
\]
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^{}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
schreiben $\vec{v}^{\:}$.
\end{notation}
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
$B^{} := \{ \vec{v}^{\:}_1, …, \vec{v}^{\:}_n \} ⊂ V^{}$
dann eine Basis von $V^{}$. Noch besser: wenn $f : V → V$ linear ist,
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
$f^{} : V^{} → V^{}$, so dass für alle Indizes $i$ gilt:
$f^{}(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass
$f^{}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{}$ die
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
Abbildung}.
\end{konstruktion}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
Vektor $\vec{v} ∈ V$ die Gleichheit
$f(\vec{v})^{} = f^{}(\vec{v}^{\:})$ gilt.
\end{beobachtung}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
Gleichheiten
\[
\Mat^B_B(f) = \Mat^{B^{}}_{B^{\:}}(f^{}) \quad\text{und}\quad
χ_f(t) = χ_{f^{}}(t)
\]
gelten. Insbesondere ist $\Mat^{B^{}}_{B^{\:}}(f^{})$ eine reelle
Matrix und $χ_{f^{}}$ ist ein reelles Polynom. Außerdem ist $f^{}$ mit
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
$\vec{v} ∈ V^{}$ die Gleichung
\begin{equation}\label{eq:9-4-7-1}
f^{}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{}\bigl( \vec{v} \bigr)}.
\end{equation}
\end{beobachtung}
\subsection{Beweis von Satz~\ref{satz:9-2-9}}
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
von $U$ liefert.
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
$f(U) ⊆ U$ ist.
\end{lemma}
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
Fall, dass $f$ keinen reellen Eigenwert hat.
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
Nullstelle ist,
\[
χ_f(\overline{λ}) = \sum a_\overline{λ}ⁱ = \sum a_\overline{λⁱ}
\overset{a_i ∈ }{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
\]
Ich betrachte jetzt für den Endomorphismus $f^{}$ einen Eigenvektor
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{}$ zum Eigenwert $λ$.
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{}$ ein Eigenvektor zum
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
ist dann $$-linear unabhängig, ebenso die Menge
\[
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
\]
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
\begin{align*}
f(\vec{v}_1) & = f^{}(\vec{v_1}) = f^{} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^{}(\vec{v}) + f^{}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
& = a·\vec{v}_1 - b·\vec{v}_2.
\end{align*}
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von
$\vec{v}_1$ und $\vec{v}_2$ ist, womit Lemma~\ref{lem:9-2-10} bewiesen wäre.
\end{proof}
\begin{proof}[Beweis von Satz~\ref{satz:9-2-9}]
\video{14-5}
\end{proof}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

147
10-selfAdjoint.tex Normal file
View File

@ -0,0 +1,147 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 10-selfAdjoint.tex 47 2020-06-08 08:23:16Z kebekus $}
\chapter{Selbstadjungierte Endomorphismen}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\sideremark{Vorlesung 15}Wir hatten im Abschnitt~\ref{sec:adAbb} gesehen, dass
es zu jeder linearen Abbildung $f : V → W$ von Euklidischen Vektorräumen stets
eine adjungierte Abbildung $f^{\ad} : W → V$ gibt. In diesem Kapitel
betrachten wir den Spezialfall wo $V = W$ ist. Dann sind sowohl $f$ als auch
$f^{\ad}$ Endomorphismen von $V$ und wir und fragen, ob und unter welchen
Umständen vielleicht $f = f^{\ad}$ ist. Solche ``selbstadjungierten''
Endomorphismen treten in der Analysis und in der Quantenmechanik auf, dort
allerdings meistens im Zusammenhang mit unendlich-dimensionalen Vektorräumen.
\begin{quote}
Self-adjoint operators are used in functional analysis and quantum
mechanics. In quantum mechanics their importance lies in the Diracvon Neumann
formulation of quantum mechanics, in which physical observables such as
position, momentum, angular momentum and spin are represented by self-adjoint
operators on a Hilbert space. Of particular significance is the Hamiltonian
operator $\what{H}$ defined by
\[
\what{H} ψ = -\frac{\hbar²}{2m} ∇² ψ + V ψ
\]
which as an observable corresponds to the total energy of a particle of mass
$m$ in a real potential field $V$.
-- \href{https://en.wikipedia.org/wiki/Self-adjoint_operator}{Wikipedia
(Self-adjoint operator)}
\end{quote}
Vielleicht finden Sie es ein wenig verwirrend, dass die oben diskutierte
Bedingung ``$f = f^{\ad}$'' in der folgenden Definition gar nicht auftaucht.
Schauen Sie sich deshalb noch einmal Satz~\vref{satz:8-4-5} an.
\begin{defn}[Selbstadjungierte Endomorphismen]\label{def:10-0-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus. Nenne den Endomorphismus $f$
\emph{selbstadjungiert}\index{selbstadjungiert}\index{Endomorphismus!selbstadjungiert},
falls für alle $\vec{v}, \vec{w} ∈ V$ die folgende Gleichheit gilt,
\[
\bigl\langle f(\vec{v}), \vec{w} \bigr\rangle = \bigl\langle \vec{v},
f(\vec{w}) \bigr\rangle.
\]
\end{defn}
\begin{bsp}[Selbstadjungiertheit bezüglich des Standardskalarprodukts]\label{bsp:10-0-2}
Es sei $V = ^n$ oder $V = ^n$ ausgestattet mit dem Standardskalarprodukt und
es sei $f ∈ \End(V)$ durch eine Matrix $A$ gegeben. Dann ist $f$ genau dann
selbstadjungiert, falls für alle $\vec{v}, \vec{w} ∈ V$ gilt
\[
\vec{v}^t · A^t · \overline{\vec{w}} = \langle A · \vec{v}, \vec{w} \rangle
= \langle \vec{v}, A · \vec{w} \rangle = \vec{v}^t · \overline{A} ·
\overline{\vec{w}}.
\]
Es folgt: der Endomorphismus ist genau dann selbstadjungiert, falls die
Gleichung $A^t = \overline{A}$ gilt. Anders formuliert: der Endomorphismus
ist genau dann selbstadjungiert, falls die Matrix $A$ eine symmetrische oder
Hermitesche Matrix ist.
\end{bsp}
\begin{aufgabe}
In der Situation von Definition~\ref{def:10-0-1} sei $\mathcal{B}$ eine
angeordnete Orthonormalbasis von $V$, mit zugehörender Koordinatenabbildung
$Φ_{\mathcal{B}} : V → ^n$ oder $Φ_{\mathcal{B}} : V → ^n$.
Rechnen Sie nach, dass für alle $\vec{v}, \vec{w} ∈ V$ die Gleichung
\[
\underbrace{\langle \vec{v}, \vec{w} \rangle}_{\text{Prod.~in }V} = %
\underbrace{\bigl\langle Φ_{\mathcal{B}}(\vec{v}), Φ_{\mathcal{B}}(\vec{w}) \bigr\rangle}_{\text{Standardskalarprodukt}}
\]
Folgern Sie mit Hilfe von Beispiel~\ref{bsp:10-0-2} messerscharf, dass die
Abbildung $f ∈ \End(V)$ genau dann selbstadjungiert ist, wenn
$\Mat_\mathcal{B}^\mathcal{B}(f)$ eine symmetrische oder Hermitesche Matrix
ist.
\end{aufgabe}
Wir werden in dieser einführenden Vorlesung die Theorie selbstadjungierte
Endomorphismen nicht weit verfolgen, obwohl sich hier sehr viel interessantes
sagen ließe. Ich stelle mit den folgenden beiden Sätzen lediglich fest, dass
selbstadjungierte Endomorphismen stets diagonalisierbar sind, und das sogar in
besonders einfacher Weise.
\begin{satz}[Selbstadjungierte Endomorphismen haben reelle Eigenwerte]
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
selbstadjungierter Endomorphismus. Dann sind alle Eigenwerte von $f$ reell
und das charakteristische Polynom zerfällt in reelle Linearfaktoren.
\end{satz}
\begin{proof}
Ich diskutiere nur den Fall, wo $\bigl( V, \langle •,• \rangle\bigr)$ unitär
ist. Sei also $λ ∈ $ ein Eigenwert von $f$, und sei $\vec{v} ∈ V$ ein
zugehöriger Eigenvektor. Dann gilt
\[
λ · \langle \vec{v}, \vec{v} \rangle %
= \langle λ · \vec{v}, \vec{v} \rangle %
= \bigl\langle f(\vec{v}), \vec{v} \bigr\rangle %
= \bigl\langle \vec{v}, f(\vec{v}) \bigr\rangle %
= \langle \vec{v}, λ · \vec{v} \rangle %
= \overline{λ} · \langle \vec{v}, \vec{v} \rangle.
\]
Weil jetzt noch $\langle \vec{v}, \vec{v} \rangle > 0$ ist, kann ich auf
beiden Seiten dividieren und erhalte $λ = \overline{λ}$. Also muss der
Eigenwert $λ$ wohl reell gewesen sein.
\end{proof}
Der folgende Satz ist in der Literatur auch als
\emph{Spektralsatz}\index{Spektralsatz} bekannt.
\begin{satz}[Selbstadjungierte Endomorphismen haben ONB aus Eigenvektoren]\label{satz:10-0-5}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
selbstadjungierter Endomorphismus. Dann gibt es eine Orthonormalbasis von
$V$, die nur aus Eigenvektoren besteht.
\end{satz}
\begin{proof}
\video{15-1}
\end{proof}
Satz~\ref{satz:10-0-5} sagt sofort, dass selbstadjungierte Endomorphismen (und
damit auch alle symmetrischen und Hermiteschen Matrizen) diagonalisierbar sind.
Der dazu nötige Basiswechsel ist sogar besonders einfach, weil die
Basiswechselmatrizen $S$ orthogonal oder unitär gewählt werden können. Das macht
die Berechnung von $S^{-1}$ extrem einfach.
\begin{kor}[Diagonalisierbarkeit symmetrischer und Hermitescher Matrizen]
Sei $A ∈ \Mat(n n, )$ oder $A ∈ \Mat(n n, )$ eine symmetrische
oder Hermitesche Matrix. Dann ist $A$ diagonalisierbar. Besser noch: es gibt
eine orthogonale oder unitäre Matrix $S$, so dass $S·A·S^{-1}$ eine
Diagonalmatrix ist.
\end{kor}
\begin{proof}
Nehmen Sie eine Orthonormalbasis aus Eigenvektoren und rechnen Sie nach, was
bei Basiswechsel geschieht!
\end{proof}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

202
11-Hauptachsen.tex Normal file
View File

@ -0,0 +1,202 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 11-Hauptachsen.tex 72 2025-04-07 10:51:21Z kebekus $}
\chapter{Hauptachsentransformation}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich
immer in besonders einfache Gestalt bringen!
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so
dass Folgendes gilt.
\begin{enumerate}
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
\[
B =
\begin{pmatrix}
λ_1 && 0\\
&\ddots\\
0 && λ_n
\end{pmatrix}
\]
\item Die Koordinatenwechselmatrix
$S = \Mat^{\mathcal{B}}_{\mathcal{A}}(\Id_V)$ ist orthogonal oder unitär.
\item Die Skalare $λ_i$ sind alle reell. Außerdem sind die $λ_i$ genau die
Eigenwerte der Matrix $A$.
\end{enumerate}
\end{satz}
\begin{proof}
\video{16-1}
\end{proof}
\begin{notation}[Hauptachsen und Hauptachsentransformation]
In der Situation von Satz~\ref{satz:11-0-1} schreibe
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den
Vektoren $\vec{v}_{}$ aufgespannten 1-dimensionalen Untervektorräume
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
\end{notation}
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
ist.
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
\begin{enumerate}
\item Die Form $s$ ist positiv definit.
\item Alle Eigenwerte von $A$ sind größer als Null.
\end{enumerate}
\end{kor}
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
sind.
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $^n$
bzw. $^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$
größer als Null sind.
\end{proof}
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5}
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter seien
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden
Matrizen $A_{} = \Mat_{\mathcal{A}_{}}(s)$. Dann gilt folgendes.
\begin{enumerate}
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
\item Die Anzahlen der negativen Eigenwerte von $A_1$ und $A_2$ sind gleich.
\item Es ist $\rang A_1 = \rang A_2$.
\end{enumerate}
\end{satz}
\begin{proof}
Sie finden einen gut aufgeschriebenen Beweis ab Seite 4 im
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skript
von Kollegen Klaus Hulek aus Hannover}.
\end{proof}
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
\begin{defn}[Index und Signatur]\label{def:11-0-5}
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index
einer Form} bezeichnet. Die Differenz
\[
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
\]
wird die \emph{Signatur von $s$}\index{Signatur einer
Form} genannt. Der Untervektorraum
\[
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
\vec{w} ∈ V \} ⊆ V
\]
heißt \emph{Entartungsraum}\index{Entartungsraum} oder
\emph{Nullraum}\index{Nullraum} der Form $s$.
\end{defn}
\begin{bemerkung}
In der Situation von Definition~\ref{def:11-0-5} rechnet man schnell nach,
dass die folgende Gleichheit gilt,
\[
\text{Rang + Signatur = 2·Index.}
\]
\end{bemerkung}
Ich ende das Kapitel mit einem Kriterium, das sicherstellen kann, dass eine
Matrix positive definit ist.
\begin{satz}[Hurwitz\footnote{\href{https://de.wikipedia.org/wiki/Adolf_Hurwitz}{Adolf Hurwitz} (* 26. März 1859 in Hildesheim; † 18. November 1919 in Zürich) war ein deutscher Mathematiker.}-Kriterium]
Es sei
\[
A =
\begin{pmatrix}
a_{11} & \ldots & a_{n1} \\
\vdots & & \vdots \\
a_{n1} & \ldots & a_{nn}
\end{pmatrix}
\Mat(n n, k)
\]
eine symmetrische oder Hermitesche Matrix über $k=$ oder $k=$. Gegeben eine
Zahl $m ≤ n$ betrachte die linke obere Ecke der Matrix, also
\[
A_m :=
\begin{pmatrix}
a_{11} & \ldots & a_{m1} \\
\vdots & & \vdots \\
a_{m1} & \ldots & a_{mm}
\end{pmatrix}
\Mat(m m, k).
\]
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
gilt, dass $\det A_m > 0$ ist.
\end{satz}
\begin{proof}
Der Beweis involviert ein wenig unangenehme Rechnerei. Sie finden einen
Beweis, den ich selbst auch nicht besser bringen könnte, auf Seite 9 des
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skriptes
von Kollegen Klaus Hulek aus Hannover}.
\end{proof}
Sie finden im Internet viele gute Erklärvideos zur Anwendung des
Hurwitz-Kriteriums. Zum Beispiel
\href{https://www.youtube.com/watch?v=V6f-yBu146M}{hier}.
\begin{bemerkung}[Vorsicht Falle]
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist''
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich
das richtig machen?
\end{bemerkung}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

842
12-Anwendungen.tex Normal file
View File

@ -0,0 +1,842 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 12-Anwendungen.tex 72 2025-04-07 10:51:21Z kebekus $}
\chapter{Anwendungen}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\sideremark{Vorlesung 17}Haben Sie schon einmal nachts wach im Bett gelegen,
weil Sie unbedingt eine symmetrische Matrix mit Hilfe eines orthogonalen
Basiswechsels diagonalisieren wollten? Drängt es Sie, die Koeffizienten von
Linearkombinationen mit Hilfe von Skalarprodukten auszurechnen?
Die Begriffe und Methoden des laufenden Kapitels über ``Euklidische und
Hermitesche Vektorräume'' haben enorm viele Anwendungen. Tatsächlich handelt es
sich bei vielen der heißen Themen zu ``Machine Learning'', ``Collective
Intelligence'' oder ``Artificial Intelligence'' um relativ einfache Methoden der
linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können --
schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine
unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen
und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass Mathematik nicht
notwendig kompliziert sein muss, um Nützlich zu sein. Ich reiße in diesem
Kapitel einige Anwendungen oberflächlich an
Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer
Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig
machen, können aber nicht sinnvoll geprüft werden.
\section{Reelle Quadriken}
Die erste ``Anwendung'' ist immer noch ziemlich theoretisch und stammt
mindestens aus der hellenistischen Antike, also etwa der Zeit Alexander des
Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
\href{https://www.ams.org/notices/200809/tx080901076p.pdf}{wo Mathematik eine
große Rolle spielte}. Es geht um folgende Situation.
\begin{situation}[Quadrik im $^n$]\label{sit:12-1-1}
Gegeben sei der $^n$ mit Koordinatenfunktionen $x_1, …, x_n$ und ein
Polynom $f(x_1, …, x_n)$ vom Grad $=2$
\[
f(x_1, …, x_n) = \sum_{j=1}^n\sum_{i=1}^j f_{ij}·x_i x_j + \sum_{i=1}^n f_i x_i + f_0
\]
mit der Nullstellenmenge
$Q := \{ \vec{x}^n \:|\: f(x_1, …, x_n) = 0 \}$. Dabei sind die
Koeffizienten $f_{••}$ und $f_{}$ reelle Zahlen.
\end{situation}
\begin{defn}[Quadrik]
Die Nullstellenmenge eines Polynoms vom Grad $2$ heißt
\emph{Quadrik}\index{Quadrik}.
\end{defn}
Wir stellen in diesem Kapitel die Frage, was wir über die Geometrie von reellen
Quadriken sagen können. Es ist klar, dass das Bild einer Quadrik unter einer
lineare Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
genauer: Wie sieht $Q$ aus nach geeigneter Wahl von Koordinaten und nach
Translationen? Wir formulieren die Frage präziser und führen die folgende
Notation ein.
\begin{defn}[Affine Abbildung]\label{def:12-1-3}
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung
$Φ : V → W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, so dass für alle
$\vec{v} ∈ V$ die Gleichung $Φ(\vec{v}) = φ(\vec{v}) + \vec{w}$ gilt.
\end{defn}
\begin{beobachtung}
Die Verkettung von affinen Abbildungen ist wieder affin. Wenn eine affine
Abbildung bijektiv ist, dann ist die Umkehrabbildung ebenfalls affin. Die
bijektiven, affinen Selbstabbildung eines Vektorraumes bilden daher eine
Untergruppe der Gruppe der bijektiven Selbstabbildungen.
\end{beobachtung}
Damit können wir unsere Frage präzise formulieren.
\begin{frage}
Gegeben sei Situation~\ref{sit:12-1-1}. Gibt es dann eine bijektive, affine
Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$ unter der
Abbildung $Φ$ eine Quadrik von besonders einfacher Gestalt ist? Gibt es
eine (kleine) Mengen von ``Grund-Quadriken'' aus denen alle anderen durch
affine Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
Verschiebung, …) entstehen?
\end{frage}
Die Antwort ist natürlich ``ja'', aber Sie haben ja zum Glück noch nicht weiter
nach vorn geblättert. Sie kennen ähnliche Fragen aus der Schule. Bei der
Diskussion der Kongruenz von Dreiecken betrachtet man Dreiecke statt Quadriken
und abstandserhaltende Abbildungen statt affiner Abbildungen.
\subsection{Vereinfachung von Quadratischen Gleichungen}
Wir bleibe in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
bijektiven, affinen Abbildungen finden, so dass die Gleichung (der Bilder von)
$Q$ immer einfacher wird. Wie immer gibt es viel Material im Internet; ein
Student wies mich auf
\href{https://www.youtube.com/watch?v=wYJAggfstyI}{folgendes Video} hin.
\subsubsection{Schritt 1: Darstellung von $f$ durch Matrizen}
Wir betrachten die folgende, symmetrische $nn$-Matrix
\[
A =
\begin{pmatrix}
f_{11} & \frac{1}{2}·f_{12} & & \cdots & \frac{1}{2}·f_{1n} \\
\frac{1}{2}·f_{12} & f_{22} & \ddots & & \vdots \\
\vdots & \ddots & \ddots \\
& & & f_{n-1,n-1} & \frac{1}{2}·f_{n-1,n} \\
\frac{1}{2}·f_{1n} & \cdots & & \frac{1}{2}·f_{n-1,n} & f_{nn}
\end{pmatrix}
\]
und den Vektor
\[
\vec{b} = \left(\frac{1}{2}·f_1, …, \frac{1}{2}·f_n \right).
\]
Dann gilt für jeden Vektor $\vec{x}^n$ die Gleichung
\begin{equation}\label{eq:12-1-3-1}
f(\vec{x}) = \vec{x}^{\:t}·A·\vec{x} + 2\vec{b}·\vec{x} + f_0.
\end{equation}
Vielleicht ist Ihnen im Moment noch nicht klar, warum Gleichung
\eqref{eq:12-1-3-1} jetzt helfen soll, die Quadriken besser zu verstehen. Der
Witz ist aber, dass wir die symmetrische Matrix $A$ diagonalisieren können!
\clearpage
\subsubsection{Schritt 2: Eliminierung der gemischten Terme}
Wir wissen: es existiert eine orthogonale $nn$-Matrix $W$, so dass die
Produktmatrix $W^t·A·W$ diagonal ist. Es sei $Q^{(1)}$ das Bild von $Q$ unter
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt
für alle $\vec{x}^n$:
\begin{align*}
\vec{x} ∈ Q^{(1)} & ⇔ W·\vec{x} ∈ Q \\
& ⇔ f(W·\vec{x}) = 0 \\
& ⇔ (W·\vec{x})^t·A·(W·\vec{x}) + 2 \vec{b} · (W·\vec{x}) + f_0 = 0 \\
&\vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0
\end{align*}
Wir erkennen zum einen, dass die Bildmenge $Q^{(1)}$ wieder eine Quadrik ist.
Die Gleichung $f^{(1)}$ der Quadrik $Q^{(1)}$ ist besonders einfach, weil es
keinen gemischten Terme mehr gibt. Das Polynom $f^{(1)}$ sieht also aus wie
\[
f^{(1)}(\vec{x}) = \sum_{i=1}^n a^{(1)}_i·x_i² + 2·\sum_{i=1}^n b^{(1)}_i·x_i + c^{(1)}
\]
Einige (aber nicht alle!) der Koeffizienten $a_i$ könnten gleich Null sein.
Durch Umnummerierung kann man aber gleich noch erreichen, dass $a_1, …, a_r$
ungleich Null sind und $a_{r+1}, …, a_n$ gleich Null, also insbesondere
\[
f^{(1)}(\vec{x}) = \sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=1}^n b^{(1)}_i·x_i + c^{(1)}
\]
\clearpage
\subsubsection{Schritt 3: Eliminierung der linearen Terme für $i≤ r$}
Betrachte die Translation
\[
φ : ^n → ^n, \quad
\begin{pmatrix}
x_1 \\ \vdots \\ x_r \\ x_{r+1} \\ \vdots \\ x_n
\end{pmatrix}
\begin{pmatrix}
x_1+\frac{b^{(1)}_1}{a^{(1)}_1} \\ \vdots \\ x_r+\frac{b^{(1)}_r}{a^{(1)}_r} \\ x_{r+1} \\ \vdots \\x_n
\end{pmatrix}
\]
und definiere $Q^{(2)}$ als das Bild von $Q^{(1)}$ unter dieser Abbildung. Dann
gilt für alle $\vec{x}^n$:
\begin{align*}
\vec{x} ∈ Q^{(2)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(1)} \\
&\sum_{i=1}^r
a^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i}
\right)² + 2 · \sum_{i=1}^r b^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right) + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
&\sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0
\end{align*}
Die Bildmenge $Q^{(2)}$ ist also wieder eine Quadrik, gegeben durch ein Polynom
\[
g(\vec{x}) = \sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)}
\]
Falls die Zahl $d^{(1)}$ ungleich Null ist, können wir die Gleichung durch
$-d^{(1)}$ dividieren (das ändert die Nullstellenmenge nicht). In jedem Fall
ist die Bildmenge $Q^{(2)}$ gegeben durch ein Polynom
\[
f^{(2)}(\vec{x}) = \sum_{i=1}^r a^{(2)}_i·x_i² + 2·\sum_{i=r+1}^n
b^{(2)}_i·x_i + c^{(2)}
\]
wobei $c^{(2)}\{0, -1\}$ ist.
\clearpage
\subsubsection{Schritt 4: Eliminierung weiterer linearer Terme}
Diese Konstruktion ist nur relevant, falls mindestens eines der $b^{(2)}_i$
ungleich Null ist. Falls alle $b^{(2)}_i$ verschwinden, machen wir in diesem
Schritt nichts und setzen
\[
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}
\]
Ansonsten können wir nach umnummerieren der Variable annehmen, dass
$b^{(2)}_{r+1} \ne 0$ ist. Betrachte dann die affine Bijektion
\[
φ : ^n → ^n, \quad
\begin{pmatrix}
x_1 \\ \vdots \\ x_r \\ x_{r+1} \\ x_{r+2} \\ \vdots \\ x_n
\end{pmatrix}
\begin{pmatrix}
x_1 \\ \vdots \\ x_r \\ \frac{-c^{(2)}}{2}-\sum_{j=r+1}^n b^{(2)}_j·x_j \\ x_{r+2} \\ \vdots \\x_n
\end{pmatrix}
\]
und definiere $Q^{(3)}$ als das Bild von $Q^{(2)}$ unter dieser Abbildung. Dann
gilt für alle $\vec{x}^n$:
\begin{align*}
\vec{x} ∈ Q^{(3)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(2)} \\
&\sum_{i=1}^r a^{(2)}_i·x²_i + 2·b^{(2)}_{r+1}·X + 2·\sum_{i=r+2}^n b^{(2)}_i·x_i + c^{(2)} = 0 \\
& \qquad\qquad\qquad \text{wobei } X = \left(\frac{-c^{(2)}}{2·b^{(2)}_{r+1}} - \frac{1}{b^{(2)}_{r+1}}·x_{r+1} - \sum_{j=r+2}^n \frac{b^{(2)}_j}{b^{(2)}_{r+1}}·x_j \right) \\
&\sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0
\end{align*}
In jedem Fall gilt: die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
gegeben durch ein Polynom
\[
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)}
\]
wobei $b^{(3)}_{r+1}\{0,-2\}$ und $c^{(3)}\{0, -1\}$ ist. Weiterhin
gilt: $b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
\subsubsection{Schritt 5: Skalierung}
Jetzt betrachte die Skalierung
\[
φ : ^n → ^n, \quad
\begin{pmatrix}
x_1 \\ \vdots \\ x_r \\ x_{r+1} \\ \vdots \\ x_n
\end{pmatrix}
\begin{pmatrix}
x_\sqrt{|a^{(3)}_1|} \\ \vdots \\ x_\sqrt{|a^{(3)}_r|} \\ x_{r+1} \\ \vdots \\x_n
\end{pmatrix}
\]
und definiere $Q^{(4)}$ als das Bild von $Q^{(4)}$ unter dieser Abbildung. Dann
gilt für alle $\vec{x}^n$:
\begin{align*}
\vec{x} ∈ Q^{(4)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(3)} \\
&\sum_{i=1}^r a^{(3)}_\left(\frac{x_i}{\sqrt{|a^{(3)}_i|}} \right)² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)} = 0.
\end{align*}
Also ist Bildmenge $Q^{(4)}$ ist also wieder eine Quadrik, gegeben durch ein
Polynom
\[
f^{(4)}(\vec{x}) = \sum_{i=1}^r a^{(4)}_i·x_i² + b^{(4)}_{r+1}·x_{r+1} + c^{(4)}
\]
wobei $a^{(4)}_{}\{-1, 1\}$, $b^{(4)}_{r+1}\{0, -2\}$ und
$c^{(4)}\{0, -1\}$ ist. Weiterhin gilt:
$b^{(4)}_{r+1} \ne 0 ⇒ c^{(4)} = 0$.
\clearpage
\subsection{Zusammenfassung der Vereinfachungen}
Insgesamt haben wir mit den oben genannten Vereinfachungsschritten jetzt
folgenden Satz bewiesen.
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}
In Situation~\ref{sit:12-1-1} gibt es Zahlen $r$, $k$ gibt es eine bijektive,
affine Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$
Nullstellenmenge einer der folgenden Gleichungen ist
\begin{enumerate}
\item $x_1² + x_2² ++ x_- x_{r+1}² -- x_$
\item $x_1² + x_2² ++ x_- x_{r+1}² -- x_- 1$
\item $x_1² + x_2² ++ x_- x_{r+1}² -- x_- 2·x_{k+1}$
\qed
\end{enumerate}
\end{satz}
\subsection{Klassifikation von Koniken}
Im Falle $n = 2$ nennt man Quadriken auch \emph{Koniken}\index{Konik}; diese
treten in der Elementargeometrie als
\href{https://de.wikipedia.org/wiki/Kegelschnitt}{Kegelschnitte}\index{Kegelschnitte}
-- sie finden zu diesem Thema jede Menge Videos, zum Beispiel
\href{https://www.youtube.com/watch?v=-kVHDqf4tDk}{dieses hier}. Koniken sind
seit der Antike ganz gut verstanden. Als Spezialfall des
Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
\begin{kor}[Klassifikation der Koniken des Appollonius von
Perge\footnote{\href{https://de.wikipedia.org/wiki/Apollonios_von_Perge}{Appollonius
von Perge} (* ca. 265 v. Chr. in Perge; † ca. 190 v. Chr. in Alexandria)
war ein antiker griechischer Mathematiker, bekannt für sein Buch über
Kegelschnitte.}]
Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann gibt es eine
bijektive, affine Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$
Nullstellenmenge einer der folgenden Gleichungen ist
\begin{enumerate}
\item $= 0:$ Doppelgerade \label{Q.1}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] (0,-2.5) -- (0,2.5);
\end{tikzpicture}
\end{center}
\item $+= 0:$ Punkt \label{Q.2}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] (0,0) circle (1.5pt);
\end{tikzpicture}
\end{center}
\item $-= 0:$ zwei Geraden, die sich schneiden \label{Q.3}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] plot (\x,\x);
\draw[red, very thick] plot (\x,-\x);
\end{tikzpicture}
\end{center}
\item $--= 0:$ wie Fall \ref{Q.2} \label{Q.4} % kommt nicht vor unten
\item $= 1:$ zwei parallele Geraden \label{Q.5}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] (-1,-2.5) -- (-1,2.5);
\draw[red, very thick] (1,-2.5) -- (1,2.5);
\end{tikzpicture}
\end{center}
\item $+= 1:$ Kreis \label{Q.6}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] (0,0) circle (1cm);
\end{tikzpicture}
\end{center}
\item $-= 1:$ Hyperbel \label{Q.7}
\begin{center}
\begin{tikzpicture}
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick, domain =1:2.5] plot (\x, {-sqrt((\x)^(2)-1)});
\draw[red, very thick, domain =1:2.5] plot (\x,{sqrt((\x)^(2)-1)});
\draw[red, very thick, domain =-2.5:-1] plot (\x, {-sqrt((\x)^(2)-1)});
\draw[red, very thick, domain =-2.5:-1] plot (\x,{sqrt((\x)^(2)-1)});
% hier muss man Fallunterscheidungen und schauen, dass sqrt nichts Negatives
% zum Auswerten bekommt
\end{tikzpicture}
\end{center}
\item $--= 1:$ (leere Menge) \label{Q.8}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
% leere Menge
\end{tikzpicture}
\end{center}
\item $- 2y = 0:$ Parabel \label{Q.9}
\begin{center}
\begin{tikzpicture}[domain =-sqrt(5):sqrt(5)] %richtige Domain wählen
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] plot (\x, {0.5*(\x)^(2)});
\end{tikzpicture}
\end{center}
\item $-- 2y = 0:$ Parabel \label{Q.10}
\begin{center}
\begin{tikzpicture}[domain =-sqrt(5):sqrt(5)]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] plot (\x, {-0.5*(\x)^(2)});
\end{tikzpicture}
\end{center}
\end{enumerate}
\end{kor}
\subsection{Fragen}
\begin{itemize}
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
im Schwerefeld bewegen. Wir kenne die Wurfparabel, die elliptischen
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von die
Satelliten beim Vorbeiflug an einem Himmelskörper. Wieso treten hier
eigentlich Koniken auf?
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
vereinfachen; es gibt also insgesamt weniger Fälle. Wie viele Typen von
komplexen Koniken gibt es?
\end{itemize}
\subsection{Projekte}
Schreiben Sie ein Computerprogramm, das für eine gegebene Konik sofort eine
vereinfachende affine Transformation liefert. Stellen Sie die Transformation
graphisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
zu den Vereinfachungen kommt.
\section{Die fünf Grundrechenarten}
\sideremark{Vorlesung 18}Ich erkläre in diesem Abschnitt die
Fourier-Transformation\footnote{\href{https://de.wikipedia.org/wiki/Joseph_Fourier}{Jean
Baptiste Joseph Fourier} (* 21. März 1768 bei Auxerre; † 16. Mai 1830 in
Paris) war ein französischer Mathematiker und Physiker.} und nenne einige
Anwendungen. Die Fourier-Transformation ist für die Praxis vielleicht das
wichtigste Stück Mathematik überhaupt\footnote{Sie selbst verwenden solche
Transformationen ununterbrochen -- haben Sie schon einmal ein Mobiltelefon
benutzt? Oder sind Sie vielleicht in einem Auto gefahren? Oder haben Sie einen
Klang gehört?}. Manche Kollegen sprechen sogar von der ``fünften
Grundrechenart''. Ich komme im Abschnitt~\ref{ssec:Rechen} darauf zurück.
In Internet finden Sie sehr viel Material zum Thema. Ich empfehle dieses
\href{https://www.youtube.com/watch?v=vA9dfINW4Rg}{Video vom MIT}. Die
Fachhochschule Hamburg hat ebenfalls ein nettes
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} (``Warum die
Fourier-Analysis in den Anwendungen so wichtig ist und welche grundlegende Idee
dahinter steht''). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
ein \href{https://av.tib.eu/media/10335}{Video}, ebenso auch Daniel Jung
(\href{https://www.youtube.com/watch?v=mMsa1uBHd9k}{$$Link}). Wenn Sie ein
wenig im Internet suchen, finden Sie noch sehr viel mehr Material.
\subsection{Integration als Skalarprodukt}
Ich komme noch einmal auf das Beispiel~\vref{bsp:Integration} zurück. Ich
betrachte den der Vektorraum $V = \cC([-π,π], )$ der reellwertigen stetigen
Funktionen auf dem Intervall $[-π,π]$. Wir haben schon gesehen, dass die
Abbildung
\[
\langle •, • \rangle : V V → , \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{} f(t) · g(t) dt.
\]
ein Skalarprodukt ist. Rechnen Sie sofort mit Hilfe der bekannten
Additionstheoreme für Sinus und Kosinus nach, dass für alle positiven Zahlen $n$
und $m$ aus $$ die folgenden Gleichungen gelten:
\[
\bigl\langle \sin(n·x), \sin(m·x) \bigr\rangle = δ_{nm}, \quad
\bigl\langle \cos(n·x), \cos(m·x) \bigr\rangle = δ_{nm}, \quad
\bigl\langle \sin(n·x), \cos(m·x) \bigr\rangle = 0.
\]
Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2}}$ noch Folgendes:
\[
\left\langle \frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}} \right\rangle = 1, \quad
\left\langle \cos(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0, \quad
\left\langle \sin(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0.
\]
Insgesamt sehen wir, dass die Menge
\[
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
\]
eine orthonormale Teilmengen des Euklidischen Vektorraumes
$\bigl( V, \langle •,• \rangle\bigr)$ ist.
\subsubsection{Rekonstruktion von Funktionen}
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von
$\mathcal{F}$ erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion
$f ∈ F$ habe, dann kann ich die Zahlen
\begin{equation}\label{eq:12-2-0-1}
a_n := \left\langle f, \sin(n·x) \right\rangle, \quad
b_n := \left\langle f, \cos(n·x) \right\rangle, \quad
c := \left\langle f, \frac{1}{\sqrt{2}} \right\rangle
\end{equation}
ausrechnen und erhalte die Gleichung:
\begin{equation}\label{eq:12-2-0-2}
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\end{equation}
Beachte dabei, dass nur endlich viele der Zahlen $a_n$, $b_n$ von Null
verschieden sind, so dass auf der rechten Seite der
Gleichung~\eqref{eq:12-2-0-2} tatsächlich nur eine endliche Summe steht.
\subsection{Fourier-Reihen}
Dies ist ein Kapitel über Anwendungen. Es stellt sich also die Frage, welche
relevanten Funktionen in dem Vektorraum $F$ liegen? Die Antwort ist: praktisch
alle. Es gilt der folgende Satz der Analysis.
\begin{satz}
Es sei $f : [-π,π]$ stetig und abschnittsweise stetig differenzierbar.
Definiere Zahlen $a_n$, $b_n$ und $c$ wie in \eqref{eq:12-2-0-1}. Dann
konvergiert die Funktionenreihe
\begin{equation}\label{eq:12}
\frac{c}{\sqrt{2}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\end{equation}
gleichmäßig (und damit punktweise) gegen $f$.
\end{satz}
\begin{defn}[Fourierkoeffizienten, Fouriereihe]
Man nennt die Zahlen $a_n$, $b_n$ und $c$ die
\emph{Fourierkoeffizienten}\index{Fourierkoeffizient} von $f$. Die
unendliche Summe \eqref{eq:12} heißt \emph{Fourierreihe}\index{Fourierreihe}
von $f$.
\end{defn}
In der Praxis ist es für die Untersuchung einer gegebenen Funktion $f$ meist gar
nicht nötig, die unendliche Fourierreihe zu betrachten. Oft liefert eine
endliche Summe wie etwa
\[
f \approx \frac{c}{\sqrt{2}} + \sum_{n=1}\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\]
bereits eine absolut brauchbare Näherung. Abbildung~\ref{fig:app}, die ich bei
\href{https://de.wikipedia.org/wiki/Fourierreihe}{Wikipedia} gestohlen habe,
zeigt wie man eine Sprungfunktion annähert.
\subsubsection{Beispiele und Erklärvideos}
Weitere Beispiele gibt es bei
\href{https://de.wikipedia.org/wiki/Fourierreihe#Beispiele}{Wikipedia} und in
diesem phantastischem
\href{https://www.youtube.com/watch?v=lL0oUZGMhXc}{Erklärvideo vom MIT}.
Vielleicht schauen sie auch einmal in
\href{https://av.tib.eu/media/10336}{dieses Video} oder in
\href{https://www.youtube.com/watch?v=spUNpyF58BY}{dieses}. Sie finden im
Internet auch eine \href{https://www.google.com/search?q=fourier+applet}{große
Zahl von Applets}, bei denen man direkt mit den Näherungen spielen kann.
\begin{figure}
\centering
\includegraphics[width=150pt]{images/RechteckFourier.pdf}
\caption{Approximation einer Sprungfunktion}
\label{fig:app}
\end{figure}
\subsection{Fourier-Transformation}
Die Fourier-Reihen, die wir oben besprachen, werden verwendet, um Funktionen auf
dem Intervall $[-π,π]$ zu beschreiben, oder äquivalent gesagt: periodische
Funktionen mit Periode $2π$. Man kann ähnliche Konstruktionen auch für nahezu
beliebige Funktionen machen. Allerdings erhält man statt der
Fourier-Koeffizienten
\[
a_n := \frac{1}{π}·\int^{π}_{} f(t) · \sin(n·t) dt.
\]
dann eine Fourier-Transformierte, die man sinnvollerweise in komplexen Zahlen
schreibt
\[
F(t) = \frac{1}{\sqrt{}}·\int_{-∞}^{} f(x)·e^{-itx}dx.
\]
Aus der Reihendarstellung
\[
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^{} \bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\]
wird dann die Formel
\[
f(x) = \frac{1}{\sqrt{}}·\int_{-∞}^{} F(t)·e^{-itx}dt.
\]
Die Funktion $F$ nennt man ``Fourier-Transformierte'' oder
``Spektrum''. Spektren gibt es in der reellen Welt überall zum Beispiel in
unserem Ohr. Das Ohr ist ein ``Spektralapparat'', der auf mechanische Weise die
Fourier-Transformation der eingehenden Schallwelle berechnet und zum Gehirn
weiterleitet. Wenn man Akustik verstehen will, muss man Fourier-Transformation
verstehen. Dann kann man super-interessante Sachen machen.
\begin{itemize}
\item Um Klangdaten zu analysieren (etwa um mit dem Computer Sprache zu
analysieren), schaue man sich die Fourier-Transformation an. Es ist mit
diesen Methoden nicht schwierig, ein kleine Computerprogramm zu bauen, dass
ein gesprochenes ``e'' von einem ``a'' unterscheidet. Suchen Sie im Internet
nach ``Python'' und ``SciKit'', dann finden Sie alles, was sie brauchen.
\item Wenn ich das Spektrum eines Klanges berechnen kann, ist es super-einfach,
interessante Sound-Effekte zu programmieren. Zum Beispiel kann ich ein
Programm machen, das ein Musikstück schneller abspielt ohne die Tonhöhe zu
verändern.
\item Da sich das Gehirn nur für das Spektrum interessiert, muss ich mir das
Spektrum anschauen, wenn ich erkennen will, welche Teile eines Klanges für das
Gehirn interessant sind. Das bekannte Dateiformat MP3 funktioniert so: schaue
das Spektrum an, verwende ein mathematisch beschriebenes Modell der
akustischen Wahrnehmung von Tonsignalen (``psycho-akustisches Modell'') und
erkenne die Teile des Spektrums die für das Gehirn uninteressant sind. Lasse
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern ohne den Klang
wesentlich zu verschlechtern.
\end{itemize}
Die Fourier-Transformation tritt aber noch an vielen anderen Stellen auf:
Signaltechnik, Analyse von Schwingungen in den Ingenieurswissenschaften, und in
der Elektronik. Sie ist aber auch die Grundlage der Quantenmechanik. Die
``Heisenbergsche Unschärferelation'', über die Philosophen viel schreiben, ist
eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
\subsection{Die fünf Grundrechenarten}
\label{ssec:Rechen}
Ich habe von Kollegen aus der Physik gehört, die Fourier-Transformation sei
wegen ihrer Wichtigkeit die ``fünfte Grundrechenart''. Das ist natürlich
falsch. Tatsache ist, dass moderne Prozessoren die
``\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
Fouriertransformation}'' extrem effizient ausführen können. Sehr viele
elektronischen Geräten enthalten zusätzlich Spezialchips zur
Fouriertransformation. Damit lässt sie die Fourier-Transformation so effizient
implementieren, dass Computer die Multiplikation ganzer Zahlen mit Hilfe von
Fourier-Transformation durchführen; Multiplikation ist also nur noch eine
Anwendung der schnellen Fouriertransformation.
\begin{quote}
Der Schönhage-Strassen-Algorithmus ist ein Algorithmus zur Multiplikation
zweier großer ganzer Zahlen. Er wurde 1971 von Arnold Schönhage und Volker
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen Variante
der diskreten schnellen Fourier-Transformation sowie einem geschickten Wechsel
zwischen der Restklassen- und der zyklischen Arithmetik in endlichen
Zahlenringen.
-- \href{https://en.wikipedia.org/wiki/Sch%C3%B6nhage%E2%80%93Strassen_algorithm}{Wikipedia}
\end{quote}
Schauen Sie sich auch einmal
\href{https://aimath.org/news/congruentnumbers/howtomultiply.html}{diesen
Artikel} an. Die Grundrechenarten im 21 Jahrhundert sind also nicht ``plus,
minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
\subsection{Warum Sinus und Kosinus}
Sie fragen sich vielleicht, was das besondere an Sinus und Kosinus ist? Warum
sind diese beiden Funktionen so wichtig? Eine Antwort ist: weil viele
natürliche Prozesse (wie etwa unser Gehör) aus Sinus und Kosinus basieren. Es
gibt aber noch andere Funktionen, mit denen man etwas ähnliches machen kann, zum
Beispiel die
\href{https://de.wikipedia.org/wiki/Kugelfl%C3%A4chenfunktionen}{Kugelflächenfunktionen},
die die quantenmechanischen Gleichungen zur Beschreibung von
wasserstoffähnlichen Atomen in besonders einfache Form bringen. Haben Sie
sich im Chemie-Unterricht schon einmal gefragt, warum die
\href{https://de.wikipedia.org/wiki/Atomorbital}{Atomorbitale} eigentlich
genau diese komischen Formen haben? Schauen Sie sich die
Kugelflächenfunktionen einmal an!
\section{Hauptkomponentenanalyse}
\sideremark{Vorlesung 19}Wussten Sie, dass der Raum der Persönlichkeitsmerkmale
von Menschen fünf-dimensional ist?
\begin{quote}
Bei den Big Five (auch Fünf-Faktoren-Modell, FFM) handelt es sich um ein
Modell der Persönlichkeitspsychologie. Im Englischen wird es auch als
OCEAN-Modell bezeichnet (nach den entsprechenden Anfangsbuchstaben Openness,
Conscientiousness, Extraversion, Agreeableness, Neuroticism).
Ihm zufolge existieren fünf Hauptdimensionen der Persönlichkeit und jeder
Mensch lässt sich auf folgenden Skalen einordnen:
\begin{itemize}
\item Offenheit für Erfahrungen (Aufgeschlossenheit),
\item Gewissenhaftigkeit (Perfektionismus),
\item Extraversion (Geselligkeit),
\item Verträglichkeit (Rücksichtnahme, Kooperationsbereitschaft, Empathie) und
\item Neurotizismus (emotionale Labilität und Verletzlichkeit).
\end{itemize}
Die Entwicklung der Big Five begann bereits in den 1930er Jahren mit dem
lexikalischen Ansatz, den Louis Thurstone, Gordon Allport und Henry Sebastian
Odbert verfolgten. Diesem liegt die Auffassung zugrunde, dass sich
Persönlichkeitsmerkmale in der Sprache niederschlagen; d. h. es wird
angenommen, dass alle wesentlichen Unterschiede zwischen Personen bereits im
Wörterbuch durch entsprechende Begriffe repräsentiert sind. Auf der Basis von
Listen mit über 18.000 Begriffen wurden durch Faktorenanalyse fünf sehr
stabile, unabhängige und weitgehend kulturstabile Faktoren gefunden: die Big
Five.
Die Big Five wurden später durch eine Vielzahl von Studien belegt und gelten
heute international als das universelle Standardmodell in der
Persönlichkeitsforschung. Sie wurden innerhalb der letzten zwanzig Jahre in
über 3.000 wissenschaftlichen Studien verwendet.
--- \href{https://de.wikipedia.org/wiki/Big_Five_(Psychologie)}{Wikipedia}
\end{quote}
Die Frage nach der Persönlichkeit mag ein bischen theoretisch vorkommen, ist
aber für Sie von großem praktischen Belang; Datenanalyse-Firmen verdienen viel
Geld damit, die fünf Koordinaten Ihrer Persönlichkeit für zahlende Kundschaft zu
ermitteln --- suchen Sie im Internet nach den Worten ``Stryker'',
``Bewerbungsgespräch'' und ``Gallup-Test'' um zu sehen, was ich meine.
\subsection{Wie kommt man auf die Zahl ``fünf''?}
Bis über die Schmerzgrenze hinaus übermäßig vereinfacht gesagt, so.
\begin{itemize}
\item Nimm eine Liste aller möglichen Adjektive der Englischen Sprache, die sich
auf ``Persönlichkeit'' beziehen -- bei Wikipedia ist von 18.000 Begriffen die
Rede.
\item Nimm eine möglichst große Gruppe von $P$ Probanden und messe für jeden
Probanden, wie stark die einzelnen Adjektive ausgeprägt sind. Wir erhalten
für jeden Probanden $p ∈ P$ einen Vektor im $\vec{v}_p ∈ ^{18000}$.
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum
$V ⊂ ^{18000}$ gibt, so dass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im
Wesentlichen alle in $V$ liegen.
\item Stelle auch fest, dass es keinen vier-dimensionalen Untervektorraum mit
diesen Eigenschaften gibt.
\end{itemize}
Die Frage ist, wie man den Vektorraum $V$ jetzt praktisch findet; das ist die
Aufgabe der ``Hauptkomponentenanalyse''. Kurz gesagt berechnet man für je zwei
Adjektive $a_i$ und $a_j$ die Kovarianz $a_{ij}$.
\begin{quote}
Kovarianz: Der Wert dieser Kenngröße macht tendenzielle Aussagen darüber, ob
hohe Werte der einen Zufallsvariablen eher mit hohen oder eher mit niedrigen
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß für
die Assoziation zwischen zwei Zufallsvariablen.
--- \href{https://de.wikipedia.org/wiki/Kovarianz_(Stochastik)}{Wikipedia}
\end{quote}
Wir erhalten so eine Kovarianzmatrix $A = (a_{ij})$. Der Witz ist jetzt, dass
diese Matrix symmetrisch ist und deshalb durch orthogonale Transformation
diagonalisiert werden kann. Jetzt kann ich mir die Einträge auf der Diagonalen
anschauen und stelle fest, dass auf der Diagonalen fünf betragsmäßig große
Zahlen stehen; alle anderen Zahlen sind vom Betrag recht klein.
\begin{aufgabe}
Lesen Sie das folgende \href{https://arxiv.org/pdf/1404.1100.pdf}{exzellente
Tutorial} zur Hauptkomponentenanalyse durch. Stellen Sie fest, dass der
wesentliche Punkt der Methode die Aussage ist, dass jede symmetrische Matrix
durch orthogonale Transformation diagonalisiert werden kann. Vielleicht
möchten Sie auch in
\href{https://ourarchive.otago.ac.nz/bitstream/handle/10523/7534/OUCS-2002-12.pdf}{diesen
Text} schauen.
\end{aufgabe}
\subsection{… und weiter?}
Hauptkomponentenanalyse wird in fast jedem Bereich der empirischen
Wissenschaften verwendet. Suchen Sie im Internet nach ``Hauptkomponentenanalyse
und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
\begin{itemize}
\item Wendet man die Hauptkomponentenanalyse auf das Kaufverhalten von
Konsumenten an, gibt es möglicherweise latente Faktoren wie sozialer Status,
Alter oder Familienstand, die bestimmte Käufe motivieren. Hier könnte man
durch gezielte Werbung die Kauflust entsprechend kanalisieren.
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, könnte mit
Hilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
Modell reduziert werden, was meistens die Modellqualität steigert.
\item Anwendung findet die Hauptkomponentenanalyse auch in der Bildverarbeitung
insbesondere bei der Fernerkundung. Dabei kann man Satellitenbilder
analysieren und Rückschlüsse daraus ziehen.
\item Ein weiteres Gebiet ist die Künstliche Intelligenz, zusammen mit den
Neuronalen Netzen. Dort dient die PCA zur Merkmalstrennung im Rahmen der
automatischen Klassifizierung bzw. in der Mustererkennung.
\item In quantitative finance, principal component analysis can be directly
applied to the risk management of interest rate derivative portfolios. Trading
multiple swap instruments which are usually a function of 30-500 other market
quotable swap instruments is sought to be reduced to usually 3 or 4 principal
components, representing the path of interest rates on a macro
basis. Converting risks to be represented as those to factor loadings (or
multipliers) provides assessments and understanding beyond that available to
simply collectively viewing risks to individual 30-500 buckets.
\end{itemize}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

96
13-multiLinear.tex Normal file
View File

@ -0,0 +1,96 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 13-multiLinear.tex 60 2020-07-01 07:14:02Z kebekus $}
\chapter{Bilineare und multilineare Abbildungen}
\sideremark{Vorlesung 20}Ich beende die Vorlesung mit einem Kapitel über
``multilineare Algebra''. In diesem Kapitel werden wir multilineare Abbildungen
und multilineare Algebra systematisch einführen. Der zentrale Begriff ist das
``Tensorprodukt''. Bevor wir richtig ``multi'' werden, diskutiere ich erst noch
einmal bilineare Abbildungen und Funktionen. Einige Beispiele für Bilinearität
kennen Sie schon.
\begin{bsp}[Bilineare Funktion]
Skalarprodukte auf Euklidischen Vektorräumen sind bilinear. Das bedeutet, die
Abbildung $V V → $ ist im ersten und im zweiten Argument linear.
\end{bsp}
Die folgende Definition sollte jetzt keine Überraschung mehr sein.
\begin{defn}[Bilineare Abbildungen]
Es sei $k$ ein Körper und es seien $U$, $V$ und $W$ drei $k$-Vektorräume. Eine
\emph{bilineare Abbildung}\index{bilineare Abbildung} ist eine Abbildung
$s: U V → W$, so dass Folgendes gilt.
\begin{description}
\item[Linearität in der ersten Komponente] Für alle
$\vec{u}_1, \vec{u}_2 ∈ U, \vec{v} ∈ V$ und für alle $λ ∈ k$ gilt
\[
s(\vec{u}_1 + λ·\vec{u}_2, \vec{v}) = s(\vec{u}_1, \vec{v}) +
λ·s(\vec{u}_2, \vec{v}).
\]
\item[Linearität in der zweiten Komponente] Für alle
$\vec{u} ∈ U, \vec{v}_1, \vec{v}_2 ∈ V$ und für alle $λ ∈ k$ gilt
\[
s(\vec{u}, \vec{v}_1 + λ \vec{v}_2) = s(\vec{u}, \vec{v}_1) + λ
s(\vec{u}, \vec{v}_2).
\]
\end{description}
\end{defn}
Beispiele für bilineare Abbildungen kennen wir in Hülle und Fülle.
\begin{bsp}
Es sei $k$ ein Körper, es seien $V, W$ zwei $k$-Vektorräume und es seien
lineare Funktionale $f ∈ V^*$ und $g ∈ W^*$ gegeben. Dann ist die folgende
Abbildung bilinear,
\[
V W → k, \quad (\vec{v}, \vec{w}) ↦ f(\vec{v}) · g(\vec{w}).
\]
\end{bsp}
\begin{bsp}
Es sei $k$ ein Körper, es seien $V$, $W$ und $U$ drei $k$-Vektorräume. Dann
ist die folgende Abbildung bilinear,
\[
\Hom_k(V, W) \Hom_k(W, U) → \Hom_k(V, U), \quad (f, g) ↦ g ◦ f.
\]
\end{bsp}
\begin{bsp}
Es sei $k$ ein Körper, es seien $V, W$ zwei $k$-Vektorräume. Dann ist
folgende Abbildung bilinear,
\[
V^*W → \Hom_k(V, W), \quad (f, \vec{w}) ↦ \big(\vec{v} ↦ f(\vec{v}\vec{w}\big).
\]
\end{bsp}
\subsection*{Multilineare Abbildungen}
Sie können es sich sicher schon denken: multilineare Abbildungen sind
Abbildungen $V_1 V_n → W$, so dass …. Ich habe vom Tippen
schon wunde Finger und verlasse mich darauf, dass Sie die Definition selbst
zusammenbekommen. Auch hier kennen wir schon mindestens ein Beispiel.
\begin{bsp}[$n$-lineare Funktion]
Betrachte die Determinantenabbildung
\[
\det : \Mat(n n, k) → k.
\]
Indem wir Matrizen als Folge von Spaltenvektoren schreiben, können wir den
Vektorraum der $n n$-Matrizen mit dem Vektorraum
$V V$ identifizieren. Wir erhalten also eine Abbildung
\[
\det : \underbrace{V V}_{n } → k.
\]
Aus dem ersten Semester wissen wir: diese Abbildung ist in jeder Komponente
linear.
\end{bsp}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

245
14-direkteSumme.tex Normal file
View File

@ -0,0 +1,245 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 14-direkteSumme.tex 60 2020-07-01 07:14:02Z kebekus $}
\chapter{Direkte Summe und direktes Produkt}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\section{Definitionen}
Ganz am Anfang der Vorlesung LA1 haben wir unter der Überschrift ``Beispiele für
Vektorräume'' eine Methode kennen gelernt, wie man aus einem $k$-Vektorraum $V$
neue $k$-Vektorräume macht: der Vektorraum $V V$ ist die Menge der
geordneten Paare von Vektoren; die Vektoraddition und skalare Multiplikation
erfolgt komponentenweise. Alternativ könnte ich $V V$ auch so
definieren: der Vektorraum $V V$ ist die Menge der Abbildungen
\[
\{1, 2 \} → V
\]
und daran erinnern, dass wir in LA1 gesehen haben, dass die Menge dieser
Abbildungen in natürlicher Weise die Struktur eines Vektorraumes trägt. Der
Raum $V V$ enthält zwei offensichtliche Untervektorräume
$V \{\vec{0}\}$ und $\{\vec{0}\} V$, die beide ganz offensichtlich
isomorph zu $V$ sind. Zusätzlich gibt es eine Zerlegung von $V V$ als
direkte Summe,
\[
V V = \bigl(V \{\vec{0}\}\bigr) ⊕ \bigl(\{\vec{0}\} V\bigr),
\]
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
mehr Komponenten. Ich erhalte so Vektorräume
\[
V V V \quad\text{oder}\quad \underbrace{V V}_{n }
\]
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
verallgemeinern.
\begin{itemize}
\item Zum einen geht es darum, Paaren von unterschiedlichen Vektorräumen
zuzulassen, also etwas wie ``$V_1 V_2$'' zu definieren
\item Zum anderen möchte ich die Konstruktion statt auch für unendlich viele
Komponenten durchzuführen.
\end{itemize}
Der Witz ist, dass es im unendlichen Fall zwei unterschiedliche Konstruktionen
gibt, die auch unterschiedliche Ergebnisse liefern.
\begin{defn}[Direkte Summe und direktes Produkt]\label{def:14-1-1}
Es sei $k$ ein Körper, es sei $I$ eine nicht-leere Menge und es sei für jedes
Element $i ∈ I$ ein $k$-Vektorraum $V_i$ gegeben. Dann betrachte
\begin{align*}
\prod_{i ∈ I} V_i & = \left\{ (\vec{v}_i)_{i ∈ I} \:\big|\: \vec{v}_i ∈ V_i \text{ für alle } i \right\} \\
\bigoplus_{i ∈ I} V_i & = \left\{ (\vec{v}_i)_{i ∈ I} \:\big|\: \vec{v}_i ∈ V_i \text{ für alle } i \text{ und nur endlich viele } \vec{v}_i ≠ \vec{0} \right\}.
\end{align*}
Beachte, dass diese Mengen mit komponentenweiser Addition und skalarer
Multiplikation jeweils Vektorräume bilden. Man nennt $\prod_{i ∈ I} V_i$ das
\emph{direkte Produkt}\index{direktes Produkt} und $\bigoplus_{i ∈ I} V_i$ die
\emph{direkte Summe}\index{direkte Summe} der Vektorräume $(V_i)_{i ∈ I}$.
\end{defn}
\begin{bemerkung}
Wir können die Elemente von $\prod V_i$ auch als Familie
$(φ_i: I → V_i)_{i ∈ I}$ von Abbildungen auffassen.
\end{bemerkung}
\begin{bemerkung}
Die direkte Summe ist ein Untervektorraum des direkten Produkts. Falls die
Menge $I$ endlich ist, sind direkte Summe und direktes Produkt identisch.
\end{bemerkung}
\begin{notation}
Wenn in der Situation von Definition~\ref{def:14-1-1} alle $k$- Vektorräume
$V_i$ gleich sind, wenn es also einen $k$-Vektorraum $V$ gibt, so dass für
alle $i ∈ I$ die Gleichheit $V = V_i$ gilt, dann schreibt man auch
\[
V^I := \prod_{i ∈ I} V \quad\text{und}\quad V^{(I)} := \bigoplus_{i ∈ I} V.
\]
Für den Fall, dass $I =$ die leere Menge ist, ist in der Literatur oft
$V^= V^{()} = \{ \vec{0}_V \}$ definiert.
\end{notation}
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
ist, nennt man $k^I$ auch den \emph{von der Menge $I$ frei erzeugten
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
betrachte den Vektor
\[
\vec{e}_j := (δ_{ij})_{i ∈ I} ∈ k^{(I)} ⊆ k^I
\]
Die so definierten Vektoren $\vec{e}_i$ heißen
\emph{Einheitsvektoren}\index{Einheitsvektoren}.
\end{notation}
\begin{aufgabe}\label{auf:14-1-6}
In der Situation von Notation~\ref{not:14-1-5}: beweisen Sie im Detail, dass
die Menge der Einheitsvektoren eine Basis des Vektorraums $k^{(I)}$ ist.
Finden Sie ein Beispiel, für das die die Menge der Einheitsvektoren keine
Basis des Vektorraums $k^I$ ist. Bemerken Sie, dass der Raum $k^I$
phantastisch viel größer ist als der Raum $k^{(I)}$.
\end{aufgabe}
\section{Die universellen Eigenschaften}
Sie wissen, wie sehr ich über jede universelle Eigenschaft freue; tatsächlich
sind die direkte Summe und das direkte Produkt durch universelle Eigenschaften
eindeutig festgelegt.
\begin{defn}[Kanonische Injektion eines Vektorraums in die direktes Summe]
In der Situation von Definition~\ref{def:14-1-1} sei ein Index $i ∈ I$
gegeben. Für jeden Vektor $\vec{v} ∈ V_i$ betrachte dann das Element
$(\vec{v}_j)_{j ∈ I}\bigoplus_{j ∈ I} V_j$, gegeben durch
\[
\vec{v}_j :=
\left\{
\begin{matrix}
\vec{0}_{V_j} & \text{falls } j \ne i \\
\vec{v} & \text{falls } j = i \\
\end{matrix}
\right.
\]
Wir erhalten so eine Abbildung
\[
ι_i : V_i → ⊕_{j ∈ I} V_j, \quad \vec{v} ↦ (\vec{v}_j)_{j ∈ I},
\]
genannt \emph{kanonische Injektion}\index{kanonische Injektion} des
Vektorraums in die direkte Summe.
\end{defn}
\begin{satz}[Universelle Eigenschaften der direkten Summe]
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein
$k$-Vektorraum. Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung
$\varphi_i: V_i → W$ gegeben. Dann existiert genau eine lineare Abbildung
$\varphi: \bigoplus_{j ∈ I} V_j → W$, so dass für alle $i ∈ I$ das folgende
Diagramm kommutiert:
\[
\begin{tikzcd}[column sep=3cm]
V_i \ar[d, equals] \ar[r, "ι_i\text{, kanon. Injektion}"] & \bigoplus_{j ∈ I} V_j \ar[d, "∃! \varphi"]\\
V_i \ar[r, "\varphi_i"'] & W .
\end{tikzcd}
\]
\end{satz}
\begin{proof}
Wie immer müssen wir Existenz und Eindeutigkeit der linearen Abbildung
$\varphi$ beweisen. Wie immer beweisen wir die Eindeutigkeit zuerst. Seien
also zwei lineare Abbildungen $\varphi_1$ und $\varphi_2$ mit den
Eigenschaften des Satzes gegeben. Gegeben einen Index $i$ und einen Vektor
$\vec{v} ∈ V_i$, ist klar, was die Abbildungen $\varphi_{}$ mit den
Bildvektoren $ι_i(\vec{v})$ machen müssen, denn aus der Kommutativität des
Diagramm folgt:
\[
\varphi_{} \bigl(ι_i(\vec{v}) \bigr) = \varphi_i(\vec{v}).
\]
Also ist schon einmal
$\varphi_1 \bigl(ι_i(\vec{v}) \bigr) = \varphi_2 \bigl(ι_i(\vec{v}) \bigr)$.
Da jetzt aber jedes Element $\vec{η} ∈ ⊕ V_j$ als endliche Summe von
Elementen der Form $ι_i(\vec{v})$ geschrieben werden kann, ist klar, dass die
Gleichung
$\varphi_1 \bigl(\vec{η} \bigr) = \varphi_2 \bigl(\vec{η} \bigr)$ für
alle Vektoren $\vec{η} ∈ ⊕ V_j$ gilt. Also ist
$\varphi_1 = \varphi_2$ und Eindeutigkeit ist gezeigt.
Wie immer sagt und der Eindeutigkeitsbeweis sofort auch, warum $\varphi$
existiert: wir können es angeben! Setzen Sie dazu
\[
\varphi: \bigoplus_{j ∈ I} V_j → W, \quad (\vec{v}_i)_{i ∈ I}
\sum_{i ∈ I} φ_i(\vec{v}_i)
\]
und rechen Sie als Hausaufgabe nach, dass dies eine wohldefinierte Abbildung
ohne unendliche Summe ist, die linear ist und die die Diagramm kommutativ
macht.
\end{proof}
\begin{defn}[Kanonische Projektion]
In der Situation von Definition~\ref{def:14-1-1} sei ein Index $i ∈ I$
gegeben. Dann betrachte die \emph{kanonische Projektion}\index{kanonische
Projektion}
\[
p_i : \prod_{j ∈ I} V_j → V_i, \quad (\vec{v}_j)_{j∈ I}\vec{v}_i.
\]
\end{defn}
\begin{satz}[Universelle Eigenschaften des direkten Produkts]
In der Situation von Definition~\ref{def:14-1-1} sei $W$ ein
$k$-Vektorraum. Weiter sei für jeden Index $i ∈ I$ eine lineare Abbildung
$\varphi_i: W → V_i$ gegeben. Dann existiert genau eine Abbildung
$\varphi: W → \prod_{j ∈ I} V_j$, so dass für alle $i ∈ I$ das folgende
Diagramm kommutiert:
\[
\begin{tikzcd}
W \ar[d, equals] \ar[r, "∃! \varphi"] & \prod_j V_j \ar[d, "p_i\text{, kanon.\ Projektion}"]\\
W \ar[r, "\varphi_i"'] & V_i .
\end{tikzcd}
\]
\end{satz}
\begin{proof}
Wieder schauen wir uns die Eindeutigkeit zuerst an und stellen fest, dass es
für einen gegebenen Vektor $\vec{w} ∈ W$ nur eine Möglichkeit gibt, was
$\varphi(\vec{w})$ wohl sein könnte: damit die Diagramme kommutieren, muss
nämlich $\varphi(\vec{w}) = \left( \varphi_j(\vec{w}) \right)_{j ∈ I}$ sein.
Damit ist die Eindeutigkeit schon gezeigt.
Wie immer sagt und der
Eindeutigkeitsbeweis sofort auch, warum $\varphi$ existiert: wir können es
angeben! Setzen Sie dazu
\[
\varphi : W → \prod_j V_j, \quad \vec{w}\left( \varphi_j(\vec{w}) \right)_{j ∈ I}
\]
und rechen Sie als Hausaufgabe nach, dass dies eine lineare Abbildung ist, die
die Diagramm kommutativ macht.
\end{proof}
\section{Dualität}
In der Vorlesung LA1 hatten wir schon gesehen, dass jeder endlich-dimensionale
Vektorraum $V$ isomorph zu seinem Dualraum $V^*$ ist. Diese Fakt hatte den
Schönheitsfehler, dass es keinen kanonischen Isomorphismus gab (jedenfalls
solange nicht noch ein Skalarprodukt gewählt war). Ich hatte schon in LA1
darauf hingewiesen, dass dies nicht das einzige Problem ist.
\begin{satz}[Kanonischer Isomorphismus zwischen Dualraum der direkten Summe und direktem Produkt der Dualräume]\label{satz:14-3-1}
Es sei $k$ ein Körper, es sei $I$ eine Menge und es sei $(V_i)_{i ∈ I}$ eine
Familie von $k$-Vektorräumen. Dann gibt es einen kanonischen Isomorphismus
\[
\Big( \bigoplus_{i ∈ I} V_i \Big)^* → \prod_{i ∈ I} (V_i^*).
\]
\end{satz}
\begin{bemerkung}
Schauen Sie sich noch einmal Aufgabe~\ref{auf:14-1-6} an. Erkennen Sie, dass
Satz~\ref{satz:14-3-1} ihnen ein Beispiel für einen Vektorraum $V$ liefert,
dessen Dualraum phantastisch viel größer ist als der Raum selbst.
\end{bemerkung}
\begin{proof}[Beweis von Satz~\ref{satz:14-3-1}]
\video{20-1}
\end{proof}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

442
15-tensor.tex Normal file
View File

@ -0,0 +1,442 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 15-tensor.tex 70 2020-07-14 14:03:02Z kebekus $}
\chapter{Das Tensorprodukt}
\label{sec:TProd}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\sideremark{Vorlesung 21}
\section{Worum geht es?}
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
es ist, dass all bilinearen Abbildungen von $UV → W$ ``von $U⊗V$ kommen'', und
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise.
\begin{defn}[Tensorprodukt]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: UV → T$, so
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: UV → W$
gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm
kommutiert:
\[
\begin{tikzcd}[column sep=2cm]
UV \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
UV \ar[r, "s\text{, bilinear}"'] & W .
\end{tikzcd}
\]
\end{defn}
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter
seien $τ_1 : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\end{satz}
\begin{proof}
\video{21-1}
\end{proof}
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
existiert ein Tensorprodukt.
\end{satz}
\begin{proof}
\video{21-2}
\end{proof}
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
Literatur oft \emph{Tensoren}\index{Tensor}.
\end{notation}
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor
$τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der
Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt
und mit $\vec{u}\vec{v}$ bezeichnet.
\end{notation}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis
$\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition,
dass die Tensoren
\[
\vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1,
\quad\text{und}\quad \vec{e}_2⊗\vec{e}_2
\]
linear unabhängig sind.
\end{aufgabe}
\section{Reine Tensoren}
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente
der Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal
wissen, ob sie Null sind oder nicht.
\begin{notation}[Reine Tensor]\label{not:15-1-4b}
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren
$\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}\vec{v}$ ist.
\end{notation}
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
Selbst wenn ein gegebener $\vec{τ} = \vec{u}\vec{v} ∈ U⊗V$ ein reiner Tensor
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung
$τ : UV → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit
\[
\vec{u}\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
\]
gilt. Es gibt aber auch noch komplizierte Beispiele.
\end{bemerkung}
\begin{bemerkung}
Betrachte die Situation aus Situation von Notation~\ref{not:15-1-4b}. Selbst
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ in $V⊗V$ gilt, ebenfalls
überraschend schwer sein.
\end{bemerkung}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Beweisen Sie, dass der Tensor
$\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner
Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$,
$\vec{v}_2^2$, so dass die Gleichheit
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ gilt! Finden Sie Vektoren, so
dass die Gleichheit nicht gilt!
\end{aufgabe}
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
die Tatsache, dass jeder Tensor eine Linearkombination von reinen Tensoren sind.
Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
hinschreiben können.
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
ist die Menge der reinen Tensoren,
\[
R := \{ \vec{u}\vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v}
V\},
\]
ein Erzeugendensystem von $U⊗ V$.
\end{satz}
\begin{proof}
\video{21-3}
\end{proof}
\begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren]
Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als
Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung
gilt,
\[
\vec{τ} = \sum_i a_i·(\vec{u_i}\vec{v_i}).
\]
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
Index $i$ die Gleichung
$a_(\vec{u_i}\vec{v_i}) = (a_\vec{u_i})\vec{v_i}$. Es ist also nicht
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen
Tensoren schreiben kann.
\end{bemerkung}
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
In der Situation von Satz~\ref{satz:15-2-5} sei $W$ ein weiterer
$k$-Vektorraum. In der Literatur (besonders in der physikalischen Literatur)
hat sich die Unart eingebürgert, lineare Abbildungen $Ψ: V⊗W → X$ durch einen
Text der folgenden Art zu definieren:
\[
Ψ: U⊗V → X, \quad \vec{u}\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}).
\]
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor
$\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination
von reinen Tensoren,
\[
\vec{τ} = \sum a_\vec{v}_i⊗\vec{w}_i
\]
und setze
\[
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
\]
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so
``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
folge.
\end{notation}
\section{Erzeugendensysteme und Basen}
Satz~\ref{satz:15-2-5} erlaubt es, jeden Tensor als Linearkombination von reinen
Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beiden
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
Tensorproduktraum erhält.
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
folgende Menge von reinen Tensoren,
\begin{align}\label{system}
P := \big( \vec{u}_i⊗\vec{v}_j \big)_{(i,j) ∈ I J}
\end{align}
ein Erzeugendensystem für $U⊗V$.
\end{kor}
\begin{proof}
Wir müssen zeigen, dass jedes Element von $U⊗V$ eine Linearkombination von
Elementen aus $P$ ist. Da jedes Element von $U⊗V$ Linearkombination von
reinen Tensoren ist, genügt es zu zeigen, dass jeder reine Tensor eine
Linearkombination des obigen Systems ist. Sei also $\vec{u}\vec{v} ∈ U⊗V$
ein reiner Tensor. Per Annahme gibt es Linearkombinationen
\[
\vec{u} = \sum_{i ∈ I} a_\vec{u}_i,\quad \vec{v} = \sum_{j ∈ J}
b_\vec{v}_j.
\]
Dann ist
\begin{align*}
\vec{u}\vec{v} &= \left(\sum_{i ∈ I} a_\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
&= \sum_{i ∈ I} a_\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
&= \sum_{i ∈ I} a_\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
&= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente}
\end{align*}
Das beweist die Behauptung.
\end{proof}
\begin{kor}[Basen für Tensorprodukt]\label{kor:15-2-7}
In der Situation von Korollar~\ref{kor:15-2-6} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ Basen von $U$ und von $V$. Dann ist die Menge
$P$ eine Basis von $U⊗V$.
\end{kor}
\begin{proof}
Um zu zeigen, dass die Menge $P$ eine Basis ist, müssen wir die lineare
Unabhängigkeit beweisen. Als Vorbereitung für den Beweis der linearen
Unabhängigkeit betrachten wir die dualen Basen
$(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und
beachten, dass für jedes Paar $(i,j) ∈ I J$ von Indices die Abbildung
\[
s_{ij} : UV → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
\vec{v}^{\:*}_i(\vec{v})
\]
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
eine lineare Abbildung $η_{ij}: U⊗V → k$, so dass für alle $(α) ∈ I J$ gilt
\begin{align*}
η_{ij} (\vec{u}_α⊗\vec{v}_β) &= s_{ij}\bigl((\vec{u}_α, \vec{v}_β)\bigr) && \text{univ.~Eigenschaft} \\
& = \vec{u}^{\:*}_i(\vec{u}_α) · \vec{v}^{\:*}_i(\vec{v}_β) && \text{Definition von } s_{ij} \\
& = δ_{iα} · δ_{} = δ_{(αβ)(ij)}. && \text{Definition von dualer Basis}
\end{align*}
Zurück zum Beweis der linearen Unabhängigkeit: es sei eine lineare Relation
\begin{equation}\label{eq:fgh}
\vec{0}_{U⊗V} = \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β
\end{equation}
gegeben. Dann gilt für jedes Paar $(i,j) ∈ IJ$ von Indizes, dass
\begin{align*}
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
&= η_{ij} \left( \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
&= \sum_{(α,β) ∈ I J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
&= a_{ij}
\end{align*}
Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
\end{proof}
\begin{kor}[Dimensionsformel für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
\end{kor}
Wir haben oben gesehen, wie man auch zwei Basen für die Vektorräume $U$ und $V$
eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
Basen.
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
das Tensorprodukt $U⊗ V$ wie folgt anordnen:
\[
\underbrace{\vec{u}_1⊗ \vec{v}_1, …, \vec{u}_1⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_1},
\underbrace{\vec{u}_2⊗ \vec{v}_1, …, \vec{u}_2⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_2},
…,
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
\]
Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
Wie sie wissen, komme ich aus einem anderen Zeitalter.} angeordnet sind.
\end{konstruktion}
\section{Tensorprodukte von Abbildungen}
Die universelle Eigenschaft des Tensorprodukts garantiert sehr schnell, dass
Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
induzieren. Der folgende Satz macht diese Aussage präzise.
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
Abbildung
\[
ν : U_1⊗U_2 → V_1⊗V_2 ,
\]
so dass das folgende Diagramm kommutiert:
\[
\begin{tikzcd}[column sep=2cm]
U_1U_2 \ar[d, "τ_1"'] \ar[r, "f_1f_2"] & V_1V_2 \ar[d, "τ_2"]\\
U_1⊗U_2 \ar[r, "∃! ν"'] & V_1⊗V_2 .
\end{tikzcd}
\]
Dabei sind $τ_{}$ die Abbildungen, die zu den Tensorprodukten gehören und
$f_1f_2$ ist die komponentenweise Abbildung, also
\[
f_1f_2: U_1U_2 → V_1V_2, \quad (\vec{u}_1, \vec{u_2}) ↦ \bigl(f_1(\vec{u}_1), f_2( \vec{u}_2)\bigr).
\]
\end{satz}
\begin{proof}
Rechnen Sie nach, dass die Abbildung $τ_2(f_1f_2): U_1U_2 → V_1⊗V_2$
bilinear ist. Existenz und Eindeutigkeit von $ν$ folgt dann direkt aus der
universellen Eigenschaft des Tensorprodukts.
\end{proof}
\begin{notation}[Tensorprodukte von Abbildungen]
In der Situation von Satz~\ref{satz:15-4-1} wird die Abbildung $ν$ oft als
\emph{Tensorprodukt der Abbildungen $f_1$ und $f_2$}\index{Tensorprodukt!von
Abbildungen} genannt und mit dem Symbol $f_1⊗f_2$ bezeichnet.
\end{notation}
Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
Matrizen diskutieren.
\begin{konstruktion}
Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
Matrizen
\[
A_1 ∈ \Mat(a_1 b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2 b_2, k)
\]
gegeben. Wir betrachten die zugehörigen linearen Abbildungen
\[
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
\varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}
\]
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
zugehörende darstellende Matrix von $\varphi_{A_1}\varphi_{A_1}$ bezüglich
dieser Produktbasen. Diese Matrix wird häufig als
\[
A_1⊗A_2 ∈ \Mat((a_1·a_2) (b_1·b_2), k)
\]
geschrieben und als \emph{Kronecker-Produkt}\index{Kronecker-Produkt} oder
\emph{Tensorprodukt}\index{Tensorprodukt!von Matrizen} der Matrizen $A_1$ und
$A_2$ bezeichnet.
\end{konstruktion}
\begin{bemerkung}
Das Kronecker-Produkt ist also eine unangenehme Abbildung
\[
•⊗• : \Mat(a_1 b_1, k)\Mat(a_2 b_2,
k) → \Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr)
\]
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
elementare Eigenschaften genannt. Der Leser wendet sich mit Grausen.
\end{bemerkung}
\begin{prop}
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
$\mathcal{B}_{U, •}$ von $U_{}$ und $\mathcal{B}_{V, •}$ von $V_{}$ gegeben.
Weiter seien $\mathcal{B}_{U, 1 2}$ und $\mathcal{B}_{V, 1 2}$ die
lexikographisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann
gilt für die darstellenden Matrizen die Gleichung
\[
\Mat^{\mathcal{B}_{U,1 2}}_{\mathcal{B}_{V,1 2}}(f_1⊗ f_2) =
\Mat^{\mathcal{B}_{U,1}}_{\mathcal{B}_{V,1}}(f_1)⊗\Mat^{\mathcal{B}_{U,2}}_{\mathcal{B}_{V,2}}(f_2)
\]
\end{prop}
\begin{proof}
Keine Lust mehr.
\end{proof}
\section{Rechenregeln für Tensorprodukträume}
Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
Folge der universellen Eigenschaften.
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
es eine kanonische Isomorphie zwischen den direkten Summen
\[
\big( \bigoplus_{i ∈ I} U_i \big)⊗V \simeq \bigoplus_{i ∈ I} (U_i⊗V)
\eqno\qed
\]
\end{satz}
\begin{satz}
Es sei $k$ und Körper und es sei $V$ ein $k-$Vektorraum. Dann gibt es einen
kanonischen Isomorphismus zwischen den Vektorräumen $k⊗V$ und $V$.
\end{satz}
\begin{proof}
Die skalare Multiplikation
\[
m: kV → V, \quad (λ, \vec{v}) ↦ λ·\vec{v}
\]
ist bilinear. Also gibt es gemäß der universellen Eigenschaft des
Tensorprodukts genau eine lineare Abbildung $η$, so dass das folgende Diagramm
kommutiert,
\[
\begin{tikzcd}
kV \ar[d, equals] \ar[r, "τ"] & k⊗V \ar[d, "∃! η"]\\
kV \ar[r, "m"] & V.
\end{tikzcd}
\]
Die Abbildung $η$ ist surjektiv, denn wenn ein Vektor $\vec{v} ∈ V$ gegeben
ist, dann ist $\vec{v} = m(1, \vec{v})$. Die Abbildung $η$ ist aber auch
injektiv. Sei nämlich $\vec{x} ∈ kV$ im Kern von $η$. Dann kann ich
$\vec{x}$ darstellen als Summe von reinen Tensoren,
\[
\vec{x} = \sum λ_i⊗\vec{v}_i = \sum 1⊗(λ_i \vec{v}_i) = 1 ⊗\big (\sum λ_i
\vec{v}_i \big).
\]
Wir wissen dann $\vec{0}_V = η(\vec{x}) = 1 · (\sum λ_i \vec{v}_i)$.
Insgesamt gilt
\[
\vec{x} = 1⊗\vec{0}_V = 1⊗(0_k · \vec{0}_V) = 0_k · (1⊗\vec{0}_V) =
\vec{0}_{k⊗V}.
\]
Die Injektivität von $η$ folgt also.
\end{proof}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

282
16-tensoralgebra.tex Normal file
View File

@ -0,0 +1,282 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 16-tensoralgebra.tex 71 2020-07-16 08:05:16Z demleitner $}
\chapter{Tensorprodukte mit mehreren Faktoren}
\label{sec:tAlg}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\sideremark{Vorlesung 22}Das laufende Kapitel heißt ``Multilineare Algebra'',
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
schon gesehen haben; es gibt also in diesem Abschnitt sehr wenig Neues. Ich
werde die langweiligen Beweise in diesem langweiligen Abschnitt deshalb meist
weglassen und mich darauf beschränken, die wesentlichen Sätze einfach nur zu
nennen.
\section{Definition, Existenz und Eindeutigkeit}
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
Begriff ``bilineare Abbildung''. Um das Tensorprodukt auch für eine größere
Zahl von Faktoren zu definieren, betrachten wir ganz analog ``multilineare
Abbildungen''.
\begin{defn}[Multilineare Abbildungen]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien seien $W$ und $V_1, …, V_n$
jeweils $k$-Vektorräume. Eine Abbildung
\[
s: V_1 V_2 V_n → W
\]
heißt \emph{multilinear}\index{multilineare Abbildung}, falls für alle
$1 ≤ i ≤ n$ und alle Vektoren $\vec{v}_1 ∈ V_1, …, \vec{v}_n ∈ V_n$ und alle
Skalare $λ ∈ k$ und alle $\vec{w} ∈ V_i$ die folgenden Gleichungen gelten:
\begin{multline*}
s(\vec{v}_1, …, \vec{v}_{i-1}, \vec{v}_i + λ·\vec{w}, \vec{v}_{i+1}, …, \vec{v}_n) = s(\vec{v}_1, …, \vec{v}_{i-1}, \vec{v}_i, \vec{v}_{i+1}, …, \vec{v}_n) \\
+ λ·s(\vec{v}_1, …, \vec{v}_{i-1}, \vec{w}, \vec{v}_{i+1}, …, \vec{v}_n).
\end{multline*}
\end{defn}
Mit diesem Begriff von ``Multilinearform'' können wir jetzt ganz allgemein
Tensorprodukte von mehr als zwei Vektorräumen definieren.
\begin{defn}[Tensorprodukt]\label{def:16-1-2}
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Ein \emph{Tensorprodukt von
$V_1, …, V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein
Vektorraum $T$ zusammen mit einer multilinearen Abbildung
$τ: V_1 V_n → T$, so dass für alle multilinearen Abbildungen
$s: V_1 V_n → W$ genau eine lineare Abbildung $η: T → W$ existiert, so
dass das folgende Diagramm kommutiert
\[
\begin{tikzcd}[column sep=2cm]
V_1 V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
V_1 V_n \ar[r, "s\text{, multilin.}"'] & W .
\end{tikzcd}
\]
\end{defn}
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des Tensorprodukts.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Weiter seien $τ_1 : V_1 V_n → T_1$ und
$τ_1 : V_1 V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen
kanonischen Isomorphismus $T_1 ≅ T_2$. \qed
\end{satz}
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
\end{satz}
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen
wir die Sprache, sprechen von ``dem Tensorprodukt'' und schreiben
\[
τ : V_1 V_n → V_1 ⊗ ⋯ ⊗ V_n.
\]
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
$\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als
\emph{rein}\index{Reine Tensoren}.
\end{notation}
\begin{notation}[Mehrfache Produkte]
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz
$V^{⊗ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$
definieren wir zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen
Vektoren $\vec{v} ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt
$\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
\end{notation}
\section{Assoziativität}
Zusätzlich zu ``Existenz'' und ``Eindeutigkeit'' gibt es beim Tensorprodukt mit
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
die Assoziativität. Der folgende Satz klärt alles.
\begin{satz}[Assoziativität des Tensorproduktes]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die
Vektorräume
\[
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
\]
kanonisch isomorph.
\end{satz}
\begin{proof}
Ich gebe keinen vollen Beweis sondern diskutiere nur die Idee. Sie sollten an
dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
Betrachten Sie die Abbildung
\[
\begin{matrix}
φ : & V_1 V_n && V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n\\
& (\vec{v}_1, …, \vec{v}_n) && \vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_{i-1} ⊗ (\vec{v}_i ⊗ \vec{v}_{i+1}) ⊗ \vec{v}_{i+2} ⊗ ⋯ ⊗ \vec{v}_n.
\end{matrix}
\]
und rechnen Sie sofort und auf der Stelle nach, dass diese Abbildung
multilinear ist. Deshalb liefert uns die universelle Eigenschaft aus
Definition~\ref{def:16-1-2} eine Abbildung $η$ und ein kommutatives Diagramm
wie folgt,
\[
\begin{tikzcd}[column sep=2cm]
V_1 V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & V_1 ⊗ ⋯ ⊗ V_n \ar[d, "∃! η\text{, multilin.}"]\\
V_1 V_n \ar[r, "φ\text{, multilin.}"'] & V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n .
\end{tikzcd}
\]
Wie immer rechne man jetzt nach, dass die Abbildung $η$ ein Isomorphismus ist.
\end{proof}
\section{Basen, Tensorprodukte von Abbildungen, Rechenregeln}
Alle Sätze aus Abschnitt~\ref{sec:TProd} gelten völlig analog auch für
Tensorprodukte mit mehreren Faktoren. Die Beweise sind praktisch unverändert,
erfordern aber mehr Schreibaufwand (ich empfehle DIN-A3 quer). Ich zähle
jeweils ohne Beweis die wesentlichen Punkte auf.
\begin{itemize}
\item Alle Tensoren sind endliche Summen von reinen Tensoren.
\item Gegeben Erzeugendensysteme oder Basen von $V_1$, …, $V_n$ dann finden wir
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
lexikographisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Falls alle $V_{}$ endlich-dimensional sind, dann ist
$\dim V_1 ⊗ ⋯ ⊗ V_n = \prod_i \dim V_i$
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
zwischen den Tensorprodukten.
\item Man definiert ein Kronecker-Produkt mit mehr als zwei Faktoren. Die
induzierte lineare Abbildungen zwischen den Tensorprodukten ist durch das
Kronecker-Produkt von Matrizen beschrieben.
\item Satz~\ref{satz:15-5-1} über das Zusammenspiel von Tensorprodukten und
direkten Summen gilt ganz analog.
\end{itemize}
\section{Die Tensoralgebra}
\label{sec:tAlg2}
Gegeben einen Körper $k$, einen $k$-Vektorraum $V$ und zwei positive Zahlen $a$
und $b ∈ ^+$, definieren wir wie folgt eine Abbildung
\[
\begin{matrix}
m_{ab} : & V^{⊗ a} V^{⊗ b} && V^{⊗ (a+b)} \\
& \bigl( (\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_a), (\vec{w}_1 ⊗ ⋯ ⊗ \vec{w}_b)\bigr) && \vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_a ⊗ \vec{w}_1 ⊗ ⋯ ⊗ \vec{w}_b
\end{matrix}
\]
Zusätzlich definieren wir noch die trivialen Randfälle
\[
\begin{matrix}
m_{0b} : & V^{⊗ 0} V^{⊗ b} && V^{⊗ b} \\
& \bigl( λ, (\vec{w}_1 ⊗ ⋯ ⊗ \vec{w}_b)\bigr) && λ·(\vec{w}_1 ⊗ ⋯ ⊗ \vec{w}_b)
\end{matrix}
\]
und
\[
\begin{matrix}
m_{a0} : & V^{⊗ a} V^{⊗ 0} && V^{⊗ a} \\
& \bigl( (\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_a), λ\bigr) && λ·(\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_a)
\end{matrix}
\]
und
\[
\begin{matrix}
m_{00} : & V^{⊗ 0} V^{⊗ 0} && V^{⊗ 0} \\
& (λ,ν) && λ·ν.
\end{matrix}
\]
Diese ``Definitionen'' verwenden die schreckliche Notation~\ref{15-2-7}.
Schauen Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe
nach, dass die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu
zeigen? Die Abbildung $m_{ab}$ sieht ein bisschen aus wie eine
Multiplikationsabbildung. Der relevante Begriff ist der einer $k$-Algebra: dies
ist ein Vektorraum, der um eine mit der Vektorraumstruktur verträgliche
Multiplikation erweitert wurde.
\begin{defn}[Algebra über einem Körper]
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
\emph{Algebra über $k$} ist ein $k$-Vektorraum $V$ zusammen mit einer
bilinearen Abbildung
\[
m : V V → V.
\]
Zusätzlich:
\begin{itemize}
\item Die Algebra heißt \emph{kommutativ}\index{kommutative
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2 ∈ V$ die Gleichheit
$m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, \vec{v}_1)$ gilt.
\item Die Algebra heißt \emph{assoziativ}\index{assoziative
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit
$m\bigl(\vec{v}_1, m(\vec{v}_2, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1,
\vec{v}_2), \vec{v}_3 \bigr)$ gilt.
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
falls es ein Element $\vec{e} ∈ V$ gibt, so dass für alle Vektoren
$\vec{v} ∈ V$ die Gleichheit
$m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
\end{itemize}
\end{defn}
Beispiele für Algebren kennen Sie schon.
\begin{bsp}[Polynome]
Es sei $k$ ein Körper und es sei $V := k[x]$, der Vektorraum der Polynome in
der Variablen '$x$' mit Koeffizienten in $k$. Die Abbildung $m$ sei die
Multiplikation von Polynomen. Diese Algebra ist kommutativ, assoziativ und
besitzt eine Eins.
\end{bsp}
\begin{bsp}[Stetige Funktionen]
Es sei $V := C^{}([0,1])$ der reelle Vektorraum der stetigen Funktionen auf
dem Einheitsintervall. Die Abbildung $m$ sei die Multiplikation von
Funktionen. Diese Algebra ist kommutativ, assoziativ und besitzt eine Eins.
\end{bsp}
\begin{bsp}[Matrizen]
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n n, k)$,
der Vektorraum der $(n n)$-Matrizen. Die Abbildung $m$ sei die
Matrixmultiplikation. Diese Algebra ist nicht kommutativ, aber assoziativ und
besitzt eine Eins.
\end{bsp}
Jetzt definieren wir die Tensoralgebra.
\begin{konstruktion}[Tensoralgebra]
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Betrachte den
Vektorraum
\[
T := \bigoplus_{n ∈ } V^{⊗ n}
\]
und die Abbildung
\[
m : T T → T, \quad \bigl( (\vec{v}_a)_{a ∈ }, (\vec{w}_b)_{b ∈ } \bigr)
\sum^{}_{c=0}\sum^c_{a+b=c} m_{ab}(\vec{v}_a, \vec{w}_b).
\]
Erinnern Sie sich dazu noch einmal an die Definition der direkten Summe und
vergewissern Sie sich, dass die Summen alle endlich sind! Ich behaupte ohne
Beweis, dass dies eine assoziative Algebra mit Eins definiert. Diese wird in
der Literatur \emph{Tensoralgebra}\index{Tensoralgebra} genannt.
\end{konstruktion}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

531
17-wedge.tex Normal file
View File

@ -0,0 +1,531 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 17-wedge.tex 72 2025-04-07 10:51:21Z kebekus $}
\chapter{Die äußere Algebra}
\label{sec:wedge}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten?
\section{Definition, Existenz und Eindeutigkeit}
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche
Abbildungen beschränken, die alternierend sind.
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei
$n ∈ $ eine Zahl. Eine multilineare Abbildung
\[
s : \underbrace{V V}_{n } → W
\]
heißt \emph{alternierend}\index{alternierende multilineare
Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung
\begin{equation}\label{eq:dfjgh}
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
\end{equation}
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
\end{defn}
\begin{beobachtung}
In der Situation~\ref{def:17-1-1} seien zwei unterschiedliche Indizes $i$ und
$j$ gegeben und es sei $σ = (ij) ∈ S_n$ die Permutation, die diese beiden
Indizes vertauscht. Dann ist
\begin{equation}\label{eq:17-1-2-1}
s(\vec{v}_1, …, \vec{v}_n) = -s(\vec{v}_{σ(1)}, …, \vec{v}_{σ(n)}).
\end{equation}
Da ist jedes Element der Permutationsgruppe $S_n$ als Produkt von
Permutationen schreiben kann, gilt allgemeiner für alle $ρ ∈ S_n$ die
Gleichung
\[
s(\vec{v}_1, …, \vec{v}_n) = \sgn(ρ)·s(\vec{v}_{ρ(1)}, …,
\vec{v}_{ρ(n)}).
\]
\end{beobachtung}
\begin{prov}
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
``alternierende Multilineare Abbildung'' nehmen?
\end{prov}
\begin{notation}[Produkte]
In der Situation von Definition~\ref{def:17-1-1} schreibe kurz
\[
V^{ n} := \underbrace{V V}_{n }.
\]
\end{notation}
\begin{bsp}[Determinante]
Es sei $k$ ein Körper und es sei $n ∈ $ eine Zahl. Betrachte Matrizen als
Tupel von Spaltenvektoren und identifiziere so den Vektorraum
$\Mat(n n, k)$ der $(n n)$-Matrizen mit dem Vektorraum
$k^n k^n$. Dann ist die Determinantenabbildung
\[
\det : k^n k^n → k
\]
eine alternierende multilineare Abbildung.
\end{bsp}
\begin{bsp}[Kreuzprodukt]
Das von Physiker geliebte
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem
$ℝ³$} ist eine alternierende multilineare Abbildung.
\end{bsp}
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
Vektorräumen definieren.
\begin{defn}[Äußeres Produkt]\label{def:17-1-4}
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, so
dass für alle multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert
\[
\begin{tikzcd}[column sep=4cm]
V^{ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
V^{n} \ar[r, "s\text{, alternierend multilin.}"'] & W .
\end{tikzcd}
\]
\end{defn}
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des äußeren Produktes.
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Weiter seien $τ_1 : V^{n} → T_1$ und $τ_1 : V^{n} → T_2$ zwei
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus
$T_1 ≅ T_2$. \qed
\end{satz}
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
\end{satz}
\begin{notation}[Notation rund um äußere Produkte]
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben
\[
τ : V^{n}\bigwedge^n V.
\]
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von
\emph{reinen Dächern}\index{reine Dächer}.
\end{notation}
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß
Definition~\ref{def:17-1-1} die folgenden Regeln.
\begin{itemize}
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$
gleich $\vec{0}_{Λ^n V}$.
\item Für jede Permutation $ρ ∈ S_n$ ist
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯
Λ \vec{v}_{ρ(n)}$.
\end{itemize}
\end{beobachtung}
\section{Erzeugendensysteme und Basen}
\marginpar{Vorlesung 23}Genau wie beim Tensorprodukt sind wir sofort in der
Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
\begin{beobachtung}[Erzeugendensysteme von $Λ^n V$]
In der Situation von Definition~\ref{def:17-1-4} sei $E ⊂ V$ ein
Erzeugendensystem. Dann ist
\[
\{\vec{v}_1 Λ ⋯ Λ \vec{v}_n \:|\: \forall i:\vec{v}_i ∈ E \}
\]
ein Erzeugendensystem von $Λ^n V$. Insbesondere gilt: wenn $V$
endlich-dimensional ist, dann auch $Λ^n V$.
\end{beobachtung}
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine
Basis von $(ℝ²)^{2}$ durch die Menge
\[
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
\vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
\]
gegeben. Das ist bei Dachprodukten nicht ganz so einfach, denn entsprechend der
Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
\[
\{ %
\underbrace{\vec{e}_1 Λ \vec{e}_1}_{= \vec{0}}, \quad %
\vec{e}_1 Λ \vec{e}_2, \quad %
\underbrace{\vec{e}_2 Λ \vec{e}_1}_{= -\vec{e}_1 Λ \vec{e}_2},
\quad %
\underbrace{\vec{e}_2 Λ \vec{e}_2}_{= \vec{0}} \}
⊂ Λ² ℝ²
\]
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …)
verzichte ich darauf.
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}
In der Situation von Definition~\ref{def:17-1-4} sei
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann
ist die Menge
\[
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
\]
eine Basis von $Λ^n V$. \qed
\end{satz}
\begin{bemerkung}
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen
sollte!
\end{bemerkung}
\begin{kor}
In der Situation von Definition~\ref{def:17-1-4} sei $n ≤ \dim V$ ist
\[
\dim Λ^n V = \# \{ (i_1, …, i_n) \:|\: i_1 < i_2 < ⋯ < i_n\},
\]
und das ist gleich dem Binomialkoeffizient $\dim V \choose n$. Für
$n > \dim V$ ist $Λ^n V$ der Nullvektorraum. \qed
\end{kor}
\begin{bemerkung}
Wenn $\dim V$ endlich ist, dann hat der Vektorraum $Λ^{\dim V} V$ die
Dimension ${\dim V \choose n} = 1$!
\end{bemerkung}
\section{Die äußere Algebra}
\label{sec:aAlg2}
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ^+$, definieren wir
wie folgt eine Abbildung
\[
\begin{matrix}
m_{ab} : & Λ^a V Λ^b V && Λ^{a+b} V \\
& \bigl( (\vec{v}_1 Λ ⋯ Λ \vec{v}_a), (\vec{w}_1 Λ ⋯ Λ \vec{w}_b)\bigr) && \vec{v}_1 Λ ⋯ Λ \vec{v}_a Λ \vec{w}_1 Λ ⋯ Λ \vec{w}_b
\end{matrix}
\]
Zusätzlich definieren wir noch die trivialen Randfälle
\[
\begin{matrix}
m_{0b} : & Λ⁰ V Λ^b V && Λ^b V \\
& \bigl( λ, (\vec{w}_1 Λ ⋯ Λ \vec{w}_b)\bigr) && λ·(\vec{w}_1 Λ ⋯ Λ \vec{w}_b)
\end{matrix}
\]
und
\[
\begin{matrix}
m_{a0} : & Λ^a V^{⊗ a} Λ⁰ V && Λ^a V \\
& \bigl( (\vec{v}_1 Λ ⋯ Λ \vec{v}_a), λ\bigr) && λ·(\vec{v}_1 Λ ⋯ Λ \vec{v}_a)
\end{matrix}
\]
und
\[
\begin{matrix}
m_{00} : & Λ⁰ V Λ⁰ V && Λ⁰ V \\
& (λ,ν) && λ·ν.
\end{matrix}
\]
Diese ``Definitionen'' verwenden die analog die schreckliche
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
\begin{konstruktion}[Äußere Algebra]
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Betrachte den
Vektorraum
\[
T := \bigoplus_{n ∈ } Λ^n V
\]
und die Abbildung
\[
m : T T → T, \quad \bigl( (\vec{v}_a)_{a ∈ }, (\vec{w}_b)_{b ∈ } \bigr)
\sum^{}_{c=0}\sum^c_{a=0} \sum^{c-a}_{b=0} m_{ab}(\vec{v}_a, \vec{w}_b).
\]
Erinnern Sie sich dazu noch einmal an die Definition der direkten Summe und
vergewissern Sie sich, dass die Summen alle endlich sind! Ich behaupte ohne
Beweis, dass dies eine assoziative Algebra mit Eins definiert. Diese wird in
der Literatur \emph{äußere Algebra}\index{äußere Algebra} genannt.
\end{konstruktion}
\begin{bemerkung}
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$
sobald $n>\dim V$ ist. Also ist
\[
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
2^{\dim V}.
\]
Kennen wir diese Zahl irgendwoher?
\end{bemerkung}
\section{Dachprodukte von Abbildungen}
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
eine Abbildung zwischen den Dachprodukten induziert.
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
$n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende
Diagramm kommutiert,
\[
\begin{tikzcd}[column sep=2cm]
V^{ n} \ar[d, "τ"'] \ar[r, "f f"] & V^{ n} \ar[d, "τ"] \\
Λ^n V \ar[r, "η"'] & Λ^n V.
\end{tikzcd}
\]
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
\end{satz}
\begin{proof}
Hier ist fast nichts zu zeigen. Die Abbildung
$τ◦(f f)$ ist alternierend und multilinear. Also
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft.
\end{proof}
\begin{bemerkung}
Für reine Dächer gilt die Gleichung
\[
^n f)(\vec{v}_1 Λ ⋯ Λ \vec{v}_n) = f(\vec{v}_1) Λ
⋯ Λ f(\vec{v}_n)
\]
\end{bemerkung}
Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
geht's.
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt.
\begin{itemize}
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix
$A := (a_{ij})\Mat(n k, k)$.
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
$A_{i_1, …,i_k}\Mat(k k, k)$ die Matrix, die aus den Spalten
$i_1, …,i_k$ der Matrix $A$ besteht.
\end{itemize}
Dann ist
\[
\vec{v}_1 Λ ⋯ Λ \vec{v}_k = \sum_{1 ≤ i_1 < ⋯ < i_k
≤ n} (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ ⋯ Λ
\vec{e}_{i_k}.
\]
\end{satz}
\begin{proof}
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt
ausrechnen, was der Koeffizient von
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
besseres ein, als das Produkt
\[
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
a_{2j}·\vec{e}_j \right) Λ ⋯ Λ \left( \sum_{j=1}^n
a_{kj}·\vec{e}_j\right)
\]
brutal auszumultiplizieren. Die relevanten Terme sind dann die folgenden:
\begin{align*}
\vec{v}_1 Λ ⋯ Λ \vec{v}_k & = \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n a_{2j}·\vec{e}_j \right) Λ ⋯ Λ \left( \sum_{j=1}^n a_{kj}·\vec{e}_j\right) \\
& = \sum_{σ ∈ S_k} \left( a_{1σ(i_1)}·\vec{e}_{σ(i_1)}\right) Λ \left( a_{2σ(i_2)}·\vec{e}_{σ(i_2)}\right) Λ ⋯ \left( a_{kσ(i_k)}·\vec{e}_{σ(i_k)}\right) \\
& \qquad\qquad + \left(\text{Rest, der zu $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ linear unabhängig ist} \right) \\
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
& = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest})
\end{align*}
Damit ist der Satz dann wohl bewiesen.
\end{proof}
\begin{kor}
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum.
Wenn jetzt Vektoren $\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann sind
die folgenden Aussagen äquivalent.
\begin{enumerate}
\item Die Menge $\{ \vec{v}_1, …, \vec{v}_k \}$ ist linear unabhängig.
\item Das äußere Produkt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ ist nicht Null. \qed
\end{enumerate}
\end{kor}
\section{Die konzeptionelle Interpretation der Determinante}
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist,
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage:
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese
Frage.
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
ist
\[
Λ^{\dim V} f = \text{skalare Multiplikation mit }\det f. \eqno \qed
\]
\end{kor}
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
geometrische Aussage.
\subsection{Die Koeffizienten des charakteristischen Polynoms}
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer
Matrix $A ∈ \Mat(n n,k)$ diskutiert,
\[
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
a_{n-1}(A)·t + a_n(A) \right).
\]
Wir hatten staunend festgestellt, dass die Funktionen
\[
a_i : \Mat(n n, k) → k
\]
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
$A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass
\[
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
\]
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]
Es sei $k$ ein Körper, es sei $n ∈ $, es sei $V$ ein $n$-dimensionaler
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
Polynom von $f$ als
\[
χ_f(t) = \det\left(f-t·\Id_V \right) = (-1)^\left(t^n+a_1·t^{n-1}+ ⋯ +
a_{n-1}·t + a_n \right).
\]
Dann gilt für jeden Index $i$ die Gleichung $a_i = (-1)^\spur (Λⁱf)$.
\end{satz}
\begin{proof}
Der Beweis besteht aus zwei Schritten. Im ersten Schritt berechnen wir brutal
die Koeffizienten des charakteristischen Polynoms. Im zweiten Schritt
berechnen wir brutal die Spur des Endomorphismus $Λⁱf$. In jedem Fall wählen
wir eine angeordnete Basis $\{\vec{e}_1, …, \vec{e}_n\}$ von $V$ und nutzen
diese Basis, um den Endomorphismus $f$ als Matrix $A = (a_{ij})\Mat(n n)$
zu schreiben.
\bigskip
\noindent \textbf{Schritt 1:} um die Koeffizienten des charakteristischen
Polynoms auszurechnen, interessiere mich für die Matrix
\[
B = (b_{ij}) =
\begin{pmatrix}
a_{11}-t & a_{12} & \cdots & & a_{n1} \\
a_{21} & \ddots & \ddots & & \vdots \\
\vdots & \ddots \\
& & & & a_{(n-1)n}\\
a_{n1} & \cdots & & a_{n(n-1)} & a_{nn}-t
\end{pmatrix}
\]
Das charakteristische Polynom ist dann die Determinante von $B$, also
\begin{equation}\label{eq:xcydfg}
χ_f(t) = \det B = \sum_{σ ∈ S_n} \sgn(σ)·b_{1σ(1)}⋯ b_{nσ(n)}.
\end{equation}
Für gegebene Permutation $σ$ und gegebenen Index $i$ gilt jetzt
\[
b_{iσ(i)} =
\left\{
\begin{matrix}
a_{ii}-t & \text{falls }σ(i)=i \\
const & \text{sonst}
\end{matrix}
\right.
\]
Insgesamt sehe ich, dass ein Summand aus~\eqref{eq:xcydfg} genau dann zum
Koeffizienten $a_{n-k}$ von $t^k$ beiträgt, wenn die Permutation $σ$
mindestens $k$ unterschiedliche Indizes festhält. Also ist
\begin{align*}
a_{n-k} & = (-1)^{n-k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n} \sum_{\txt{\scriptsize $σ ∈ S_n$\\\scriptsize hält $i_1, …, i_k$ fest}} \sgn(σ)·a_{1σ(1)}⋯·a_{nσ(n)} \\
& = (-1)^{n-k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n} \det(\widetilde{A}_{i_1, …, i_k}),
\end{align*}
wobei $\widetilde{A}_{i_1, …, i_k}\Mat((n-k)(n-k))$ die Matrix ist, die
entsteht, wenn ich aus $A$ die Zeilen und Spalten $i_1, …, i_k$ streiche.
Äquivalent kann ich schreiben
\begin{equation}\label{eq:A}
a_k = (-1)^{k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n}
\det(\widetilde{A}^{i_1, …, i_k})
\end{equation}
wobei $\widetilde{A}^{i_1, …, i_k}\Mat(k k)$ die Matrix ist, die entsteht,
wenn ich aus $A$ alle Zeilen und Spalten bis auf $i_1, …, i_k$ streiche.
\bigskip
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
wir noch einmal daran, dass die Dachprodukte
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von
$Λ^k V$ bilden. Gegeben also ein solches Basiselement
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3}
\begin{align*}
^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k}\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
& = \det(A_{i_1, …, i_k}\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k} \\
& \qquad\qquad + (\text{Rest, Linearkombination der anderen Basisvektoren}),
\end{align*}
wobei ich für die Definition der Matrix $A_{i_1, …, i_k}$ noch einmal auf
Satz~\ref{satz:17-4-3} verweise. Insgesamt ergibt sich nach Definition der
Spur die Gleichung
\begin{equation}\label{eq:B}
\spur^k f) = \sum_{1≤ i_1 < ⋯ < i_k ≤ n} \det(A_{i_1, …, i_k})
\end{equation}
\bigskip
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix
$\widetilde{A}^{i_1, …, i_k}$ ist.
\end{proof}
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

304
18-dehn.tex Normal file
View File

@ -0,0 +1,304 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 18-dehn.tex 60 2020-07-01 07:14:02Z kebekus $}
\chapter{Eine Anwendung aus der Regio: Zerlegungsgleichheit von Polyedern}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
\marginpar{Vorlesung 24}Auf dem zweiten internationalen Mathematikerkongress im
August 1900 in Paris hielt David
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch
breit gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste
von 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag
beim Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen
Probleme als äußerst einflussreich für die Entwicklung der Mathematik im
20.~Jahrhundert.
\section{Hilbert's drittes Problem}
In
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
drittem Problem} geht es um folgende Frage: gegeben sind zwei
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
$\bR^3$. Ich möchte den ersten Polyeder $P_1$ durch gerade Schnitte in ein
Puzzle zerlegen, aus dem sich der zweite Polyeder $P_2$ zusammensetzen lässt.
Kann ich entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die
Polyeder $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit}
sind.
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
\begin{beobachtung}
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
die Antwort ``Nein!''
\end{beobachtung}
\begin{notation}
In moderner Sprache formulieren wir so: die Zerlegungsgleichheit von Polyedern
ist eine Äquivalenzrelation auf der Menge $\Pi$ aller Polyeder. Die
Volumenfunktion
\[
\operatorname{vol} : \Pi \to \bR^{\geq 0}
\]
ist auf den Äquivalenzklassen konstant. Man sagt, das Volumen ist eine
\emph{Invariante}\index{Invariante}.
\end{notation}
Schauen Sie zum Thema Invarianten einmal in
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen
haben, können sie nicht zerlegungsgleich sein. Invarianten können uns also
helfen, für gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf
Hilbert's Frage zu geben.
\section{Die Dehn-Invariante}
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
``Volumen'' ist also nicht fein genug um Hilbert's Frage vollständig zu
beantworten. Aus diesem Grund konstruierte Max
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
Anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
offensichtlich ist, wie das Volumen. Die
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
\[
\operatorname{dehn} : \Pi \to V,
\]
wobei $V$ ein $\bQ$-Vektorraum ist, den wir gleich konstruieren werden. Die
Invarianteneigenschaft folgt daraus, dass die Dehn-Invariante \emph{additiv}
ist. Mit anderen Worten: wenn ein Polyeder $P$ auf beliebige Art in zwei
Teilpolyeder zerlegt wird, $P = P_1 P_2$, dann gilt stets die folgende
Gleichung,
\begin{equation}\label{eq:Dehn2}
\operatorname{dehn}(P) = \operatorname{dehn}(P_1) + \operatorname{dehn}(P_2).
\end{equation}
\subsection{Konstruktion des Vektorraums}
Um den Vektorraum $V$ zu konstruieren, betrachte $$ zuerst als Vektorraum über
$$. Elemente sind zum Beispiel die Zahlen $1$, $\sqrt{2}$ oder die Kreiszahl
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
\begin{bemerkung}
Um mit dem $\bQ$-Vektorraum $\bR$ warm zu werden, fragen wir: ist die Menge
$\{ 1, \sqrt{2}\}$ $\bQ$-linear unabhängig? Die Antwort ist ``Nein!'' Denn
falls es zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale
$\bQ$-lineare Relation gäbe,
\[
p · 1 + q · \sqrt{2} = 0,
\]
so wäre $q \ne 0$ und $\sqrt{2} = - \frac{p}{q}$ wäre rational. Wir wissen
aber schon, dass $\sqrt{2}$ irrational ist.
\end{bemerkung}
Um jetzt den $\bQ$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl
$π$ erzeugten $\bQ$-Untervektorraum $\langle π \rangle \subset $. Weiter
betrachten wir den Quotientenvektorraum $\factor{}{\langle π \rangle}$. Der
Vektorraum $V$ von Max Dehn ist dann gleich dem Tensorprodukt,
\[
V = \left(\factor{}{\langle π \rangle}\right).
\]
Dies ist ein Tensorprodukt von $$-Vektorräumen, also selbst ein $$-Vektorraum.
\subsection{Konstruktion der Invariante}
Als nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi \to V$
konstruieren; wir müssen also jedem Polyeder $P \subset \bR^3$ ein Element des
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
$\ell(E_1)$, …, $\ell(E_n)$; dies sind positive reelle Zahlen. An jeder Kante
kommen zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
Bogenmaß. Nach diesen Vorbereitung definieren wir das die Dehn-Invariante von
$P$ schließlich als
\[
\operatorname{dehn}(P) := \sum_{k=1}^{n} \ell(E_k) ⊗ α (E_k).
\]
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante
definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\begin{beobachtung}
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
\end{beobachtung}
% PRISMA
\begin{figure} % "h" platziert Grafik an dieser Stelle
\centering
\begin{tikzpicture}[xyz]% z-Achse zeigt nach oben
% Koordinaten in zwei zur xz-Ebene parallelen Ebenen definieren
\foreach[count=\i] \z in {0,5}
\path
(0,\z,0)coordinate(A\i)
(-3,\z,0)coordinate(B\i)
(0,\z,4)coordinate(C\i)
;
% Grundfläche füllen
\foreach \i/\j in {A/B}
\path[flaeche](\i1)--(\i2)--(\j2)--(\j1)--cycle;
% Seitenfläche(n) füllen, gegebenenfalls doppelt, damit dunkler
\foreach \i in {1,1,2,2}
\path[flaeche](A\i)--(B\i)--(C\i)--cycle;
% hintere Fläche füllen
\foreach \i/\j in {B/C}
\path[flaeche](\i1)--(\i2)--(\j2)--(\j1)--cycle;
% sichtbare Kanten zeichnen
\path[draw, thick](C2) -- node[above]{$\ell$} (C1) -- (A1) --
node[above]{$\ell$} (A2) -- node[left]{$\ell_1$} cycle;
\path[draw, thick](C2) -- node[right]{$\ell_2$} (B2) -- node[below, right=.5mm]{$\ell_3$} (A2);
% verdeckte Kanten zeichnen
\path[draw,dashed](A1) -- (B1) -- node[above]{$\ell$} (B2) (B1) -- (C1);
% Winkel zeichnen (im Uhrzeigersinn = Innenwinkel; Werte anpassen, damit es gut aussieht...)
\pic ["$γ$", draw, angle radius=.4cm, angle eccentricity =
0.55]{angle=C2--B2--A2};
\pic ["$α$", draw, angle radius=.6cm, angle eccentricity =
0.65]{angle=B2--A2--C2};
\pic ["$β$", draw, angle radius=1.1cm, angle eccentricity =
0.85]{angle=A2--C2--B2};
\end{tikzpicture}
\caption{Prisma}\label{fig:prisma}
\end{figure}
\begin{bsp}[Dehn-Invariante eines Prismas]
Es sei $P$ das in Abbildung~\ref{fig:prisma} gezeigte Prisma. Dann berechnet sich die Dehn-Invariante als
\begin{align*}
\operatorname{dehn}(P) &= \ell_1 ⊗ \frac{π}{2} + \ell_2 ⊗ \frac{π}{2} + \ell_3 ⊗ \frac{π}{2} + \ell ⊗ β + \ellα + \ellγ + \ell_1 ⊗ \frac{π}{2} + \ell_2 ⊗ \frac{π}{2} + \ell_3 ⊗ \frac{π}{2} \\
&= \ell ⊗ (β + α + γ)\\
&= \ell ⊗ π = 0.
\end{align*}
\end{bsp}
%PYRAMIDE
\begin{figure}
\centering
\begin{tikzpicture}[xyz]% z-Achse zeigt nach oben
\path
(0,0,0)coordinate(A1)
(5,0,0)coordinate(B1)
(5,5,0)coordinate(C1)
(0,5,0)coordinate(D1)
(2.5,2.5,7)coordinate(S)
($(A1)!0.6!(S)$)coordinate(A2) % liegt damit automatisch auf der Kante
($(B1)!0.55!(S)$)coordinate(B2)
($(C1)!0.4!(S)$)coordinate(C2)
($(D1)!0.4!(S)$)coordinate(D2)
;
% Schnittfläche füllen
\path[flaeche, blue!50] (A2)--(B2)--(C2)--(D2)--cycle;
% Schnittkanten blau
\path[draw, blue, very thick] (A2) -- (B2) -- (C2) -- (D2) -- cycle;
% Grundfläche füllen
\path[flaeche, green!15] (A1)--(B1)--(C1)--(D1)--cycle;
% Grundflächenkanten grün
\path[draw, green, very thick] (B1) -- (C1) -- (D1);
\path[draw, dashed, very thick, green] (D1) -- (A1) -- (B1);
% Seitenfläche(n) füllen
\foreach \i/\j in {A/B, B/C, C/D, D/A}
\path[flaeche] (\i1)--(\j1)--(S)--cycle;
% sichtbare Kanten zeichnen
\path[draw, thick] (B1) -- (S) -- (C1) (S) -- (D1);
% verdeckte Kanten zeichnen
\path[draw, dashed] (S) -- (A1);
% Beschriftung
\draw[->, thick] (4,6,6) -- node[above=0.3cm, right=1.1cm]{$P_1$} (2,3,4.5);
\draw[->, thick] (2,-1,2) -- node[above=0.2cm, left=1.3cm]{$P_2$}
(2,1.5,1.5);
\end{tikzpicture}
\caption{Pyramide, in zwei Teile zerlegt}\label{fig:pyramide}
\end{figure}
\begin{satz}
Die Abbildung $\operatorname{dehn}$ ist additiv.
\end{satz}
\begin{proof}
Es sei $P$ ein Polyeder, zerlegt durch gerade Schnitte in zwei Teilpolyeder,
$P_1$ und $P_2$. Die Abbildung~\ref{fig:pyramide} zeigt, was ich meine.
Bezeichne die Kanten von $P$ mit $E_1$, …, $E_n$. Wir beobachten, dass es
zwei unterschiedliche Arten von Kanten gibt.
\begin{itemize}
\item Kanten, die vollständig in $P_1$ oder in $P_2$ liegen (in der Abbildung grün).
\item Kanten, die bei der Zerlegung von $P$ zerschnitten werden (in der
Abbildung schwarz).
\end{itemize}
Nach Umnummerierung können wir ohne Einschränkung der Allgemeinheit annehmen,
dass die Kanten $E_1$, …, $E_b$ grün und dass die Kanten $E_{b+1}$, …, $E_n$
schwarz sind. Jetzt schaue ich mir die Kanten von $P_1$ und $P_2$ an. Dort
gibt es drei unterschiedliche Arten von Kanten.
\begin{itemize}
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$
Kanten des Teilpolyeders $P_1$ sind. Wenn wir mit $α^1(E_1)$, …, $α^1(E_a)$
und $α^2(E_{a+1})$, …, $α^2(E_b)$ die Winkel der Flächen der Teilpolyeder
bezeichnen, dann gelten die Gleichungen
\begin{equation}
\begin{matrix}
α(E_1) = α^1(E_1) && α(E_a) = α^1(E_a) \\
α(E_{a+1}) = α^2(E_{a+1}) && α(E_b) = α^2(E_b)
\end{matrix}
\end{equation}
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
Kante $E_{\bullet}$ mit $E^1_{\bullet}$ und $E^2_{\bullet}$ bezeichnen, dann
gilt für die Längen und für die Winkel
\begin{equation}
\begin{aligned}
\ell(E_{\bullet}) & = \ell^1(E^1_{\bullet}) + \ell^2(E^2_{\bullet}) \\
α(E_{\bullet}) & = α^1(E^1_{\bullet}) = α^2(E^2_{\bullet})
\end{aligned}
\end{equation}
\item Schließlich gibt es noch Kanten, die durch das Zerlegen neu
hinzugekommen sind. Eine solche Kante tritt immer zwei mal auf: ein mal in
$P_1$ und ein mal in $P_2$. Wir bezeichnen diese Kanten mit $E^1_{n+1}$,
$E^2_{n+1}$, …, $E^1_m$, $E^2_m$. Es gilt für jeden Index $i > n$
\begin{equation}
\ell^1(E^1_i) = \ell^2(E^2_i) \quad\text{und}\quad α^1(E^1_i) + α^2(E^2_i) = π
\end{equation}
\end{itemize}
Mit diesen Bezeichnungen ist
\begin{align*}
\operatorname{dehn}(P_1) & = \sum_{i=1}^a \ell^1(E_i)\otimes α^1(E_i) + \sum_{i=b+1}^n \ell^1(E^1_i)\otimes α^1(E^1_i) + \sum_{i=n+1}^m \ell^1(E^1_i)\otimes α^1(E^1_i) \\
& = \sum_{i=1}^a \ell(E_i)\otimes α(E_i) + \sum_{i=b+1}^n \ell^1(E^1_i)\otimes α(E_i) + \sum_{i=n+1}^m \ell^1(E^1_i)\otimes α^1(E^1_i) \\
\operatorname{dehn}(P_2) & = \sum_{i=a+1}^b \ell^2(E_i)\otimes α^2(E_i) + \sum_{i=b+1}^n \ell^2(E^2_i)\otimes α^2(E^2_i) + \sum_{i=n+1}^m \ell^2(E^2_i)\otimes α^2(E^2_i) \\
& = \sum_{i=a+1}^b \ell(E_i)\otimes α(E_i) + \sum_{i=b+1}^n \ell^2(E^1_i)\otimes α(E_i) + \sum_{i=n+1}^m \ell^2(E^2_i)\otimes α^2(E^2_i) \\
\end{align*}
und deshalb
\begin{align*}
\operatorname{dehn}(P_1) + \operatorname{dehn}(P_2) & = \sum_{i=1}^b \ell(E_i)\otimes α(E_i) + \sum_{i=b+1}^n \underbrace{\bigl(\ell^1(E^1_i)+\ell^2(E^1_i)\bigr)}_{= \ell(E_i)} \otimes α(E_i) \\
& \qquad\qquad + \sum_{i=n+1}^m \ell^1(E^1_i)\otimes \underbrace{\bigl(α^1(E^1_i)+α^2(E^2_i)\bigr)}_{ = π\text{, also gleich 0 in }\factor{}{\langle π \rangle}} \\
& = \sum_{i=1}^b \ell(E_i)\otimes α(E_i) + \sum_{i=b+1}^n \ell(E_i) \otimes α(E_i) \\
& = \operatorname{dehn}(P).
\end{align*}
Das macht einen einfachen Mathematiker sehr glücklich.
\end{proof}
\section{…und was kann ich jetzt damit machen?}
Wir können ausrechnen, dass ein Würfel und ein Tetraeder \emph{nicht}
zerlegungsgleich sind, selbst wenn beide dasselbe Volumen haben. Schauen Sie
sich dazu als letzten Punkt der Vorlesung
\href{https://www.youtube.com/watch?v=eYfpSAxGakI}{dieses wunderbare Video} an.
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

88
19-ausblick.tex Normal file
View File

@ -0,0 +1,88 @@
%
% Do not edit the following line. The text is automatically updated by
% subversion.
%
\svnid{$Id: 19-ausblick.tex 63 2020-07-06 08:06:31Z kebekus $}
\chapter{Ausblick.}
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
Wir sind am Ende der Vorlesung ``Lineare Algebra II''. Wir hoffen, dass Sie
trotz des ungewöhnlichen Formats der Vorlesung etwas gelernt und für sich
mitgenommen haben.
\bigskip
\bigskip
Ich wünsche Ihnen weiterhin viel Erfolg in Ihrem Studium. Bleiben Sie gesund.
\bigskip
--- Stefan Kebekus.
\bigskip
\bigskip
\subsection*{Ein sehr persönliches Wort zum Ende}
\begin{quote}
Any interested participant with basic knowledge of vector and matrix
multiplication as linear algebra is at the core of quantum computing
algorithms.
-- \href{https://learn-xpro.mit.edu/quantum-computing}{MIT xPro}
\end{quote}
Für mich ist die Vorlesung ``Lineare Algebra II'' so etwas wie ein Schlüssel zur
Welt. Wir leben in einer Zeit, in der neue Techniken der
Informationsverarbeitung unsere Gesellschaft in nie gesehener Art und Weise
umwälzen, zum Guten wie zum
\href{https://de.wikipedia.org/wiki/Sozialkredit-System}{Schlechten}. Die Wucht
dieser Umwälzungen ist schwer zu unterschätzen; vermutlich werden die
langfristigen Auswirkungen am ehesten mit denen der
\href{https://de.wikipedia.org/wiki/Industrielle_Revolution}{ersten
industriellen Revolution} vergleichbar sein.
In dieser Situation erscheint mir unsere Gesellschaft als überfordert. Sie
wirkt unfähig oder unwillig, die unausweichlichen Änderungen aktiv zu
gestalten. Unser Bildungssystem trägt nach meinem Eindruck wenig Positives bei;
es scheint in weiten Teilen bemüht, die Änderungen der Welt so lang als möglich
zu ignorieren. Es gilt aber der alte Satz: Was ich nicht verstehe, kann ich
nicht gestalten! Was ich nicht verstehe, macht mir Angst!
Tatsächlich sind viele der Techniken, die sich heute unter Stichworten wie
\emph{Artificial Intelligence}, \emph{Machine Learning} oder \emph{Collective
Intelligence} verbergen, konzeptuell einfache Anwendungen von Linearer
Algebra. Wenn Sie diese Vorlesung durchgearbeitet haben, sind Sie in der
\emph{Pole Position}, um diese Sachen zu verstehen. Sie können sich noch heute
eine ein Framework wie \href{https://www.tensorflow.org/}{TensorFlow} auf ihren
Linux-Laptop laden, die hervorragenden
\href{https://www.tensorflow.org/tutorials}{Tutorials} hernehmen und ihr erstes
\emph{Machine Learning} Projekt starten! Oder schauen Sie sich bei
\href{https://www.kaggle.com/learn/overview}{Kaggle} um. Informieren Sie sich
über Quantencomputer! Das Internet ist voll von Ressourcen, die Ihnen diese
Technik erklären. Schauen Sie sich das interaktive Lehrbuch von
\href{https://qiskit.org/textbook/preface.html}{Qiskit} an
(\href{https://www.youtube.com/playlist?list=PLOFEBzvs-Vvp2xg9-POLJhQwtVktlYGbY}{Videos
gibt es hier}), und stellen Sie bei IBM ihren ersten
\href{https://quantum-computing.ibm.com/docs/start-iqx/code/first-circ}{Quanten-Schaltkreis}
zusammen. Oder Sie benutzen den
\href{http://www.quantumplayground.net/#/home}{Quantum Computing Playground}.
Vielleicht schauen Sie sich auch die praktischen Kurse von
\href{https://learn-xpro.mit.edu/quantum-computing}{MIT xPro} an.
\bigskip
Es ist sicher keine gute Idee, zu warten, bis Ihnen die Universität Freiburg
einen mundgerechten Kurs anbietet. Legen Sie los!
%%% Local Variables:
%%% mode: latex
%%% TeX-master: "20LA2"
%%% End:

156
LICENSE Normal file
View File

@ -0,0 +1,156 @@
Creative Commons Attribution 4.0 International
Creative Commons Corporation (“Creative Commons”) is not a law firm and does not provide legal services or legal advice. Distribution of Creative Commons public licenses does not create a lawyer-client or other relationship. Creative Commons makes its licenses and related information available on an “as-is” basis. Creative Commons gives no warranties regarding its licenses, any material licensed under their terms and conditions, or any related information. Creative Commons disclaims all liability for damages resulting from their use to the fullest extent possible.
Using Creative Commons Public Licenses
Creative Commons public licenses provide a standard set of terms and conditions that creators and other rights holders may use to share original works of authorship and other material subject to copyright and certain other rights specified in the public license below. The following considerations are for informational purposes only, are not exhaustive, and do not form part of our licenses.
Considerations for licensors: Our public licenses are intended for use by those authorized to give the public permission to use material in ways otherwise restricted by copyright and certain other rights. Our licenses are irrevocable. Licensors should read and understand the terms and conditions of the license they choose before applying it. Licensors should also secure all rights necessary before applying our licenses so that the public can reuse the material as expected. Licensors should clearly mark any material not subject to the license. This includes other CC-licensed material, or material used under an exception or limitation to copyright. More considerations for licensors.
Considerations for the public: By using one of our public licenses, a licensor grants the public permission to use the licensed material under specified terms and conditions. If the licensors permission is not necessary for any reasonfor example, because of any applicable exception or limitation to copyrightthen that use is not regulated by the license. Our licenses grant only permissions under copyright and certain other rights that a licensor has authority to grant. Use of the licensed material may still be restricted for other reasons, including because others have copyright or other rights in the material. A licensor may make special requests, such as asking that all changes be marked or described. Although not required by our licenses, you are encouraged to respect those requests where reasonable. More considerations for the public.
Creative Commons Attribution 4.0 International Public License
By exercising the Licensed Rights (defined below), You accept and agree to be bound by the terms and conditions of this Creative Commons Attribution 4.0 International Public License ("Public License"). To the extent this Public License may be interpreted as a contract, You are granted the Licensed Rights in consideration of Your acceptance of these terms and conditions, and the Licensor grants You such rights in consideration of benefits the Licensor receives from making the Licensed Material available under these terms and conditions.
Section 1 Definitions.
a. Adapted Material means material subject to Copyright and Similar Rights that is derived from or based upon the Licensed Material and in which the Licensed Material is translated, altered, arranged, transformed, or otherwise modified in a manner requiring permission under the Copyright and Similar Rights held by the Licensor. For purposes of this Public License, where the Licensed Material is a musical work, performance, or sound recording, Adapted Material is always produced where the Licensed Material is synched in timed relation with a moving image.
b. Adapter's License means the license You apply to Your Copyright and Similar Rights in Your contributions to Adapted Material in accordance with the terms and conditions of this Public License.
c. Copyright and Similar Rights means copyright and/or similar rights closely related to copyright including, without limitation, performance, broadcast, sound recording, and Sui Generis Database Rights, without regard to how the rights are labeled or categorized. For purposes of this Public License, the rights specified in Section 2(b)(1)-(2) are not Copyright and Similar Rights.
d. Effective Technological Measures means those measures that, in the absence of proper authority, may not be circumvented under laws fulfilling obligations under Article 11 of the WIPO Copyright Treaty adopted on December 20, 1996, and/or similar international agreements.
e. Exceptions and Limitations means fair use, fair dealing, and/or any other exception or limitation to Copyright and Similar Rights that applies to Your use of the Licensed Material.
f. Licensed Material means the artistic or literary work, database, or other material to which the Licensor applied this Public License.
g. Licensed Rights means the rights granted to You subject to the terms and conditions of this Public License, which are limited to all Copyright and Similar Rights that apply to Your use of the Licensed Material and that the Licensor has authority to license.
h. Licensor means the individual(s) or entity(ies) granting rights under this Public License.
i. Share means to provide material to the public by any means or process that requires permission under the Licensed Rights, such as reproduction, public display, public performance, distribution, dissemination, communication, or importation, and to make material available to the public including in ways that members of the public may access the material from a place and at a time individually chosen by them.
j. Sui Generis Database Rights means rights other than copyright resulting from Directive 96/9/EC of the European Parliament and of the Council of 11 March 1996 on the legal protection of databases, as amended and/or succeeded, as well as other essentially equivalent rights anywhere in the world.
k. You means the individual or entity exercising the Licensed Rights under this Public License. Your has a corresponding meaning.
Section 2 Scope.
a. License grant.
1. Subject to the terms and conditions of this Public License, the Licensor hereby grants You a worldwide, royalty-free, non-sublicensable, non-exclusive, irrevocable license to exercise the Licensed Rights in the Licensed Material to:
A. reproduce and Share the Licensed Material, in whole or in part; and
B. produce, reproduce, and Share Adapted Material.
2. Exceptions and Limitations. For the avoidance of doubt, where Exceptions and Limitations apply to Your use, this Public License does not apply, and You do not need to comply with its terms and conditions.
3. Term. The term of this Public License is specified in Section 6(a).
4. Media and formats; technical modifications allowed. The Licensor authorizes You to exercise the Licensed Rights in all media and formats whether now known or hereafter created, and to make technical modifications necessary to do so. The Licensor waives and/or agrees not to assert any right or authority to forbid You from making technical modifications necessary to exercise the Licensed Rights, including technical modifications necessary to circumvent Effective Technological Measures. For purposes of this Public License, simply making modifications authorized by this Section 2(a)(4) never produces Adapted Material.
5. Downstream recipients.
A. Offer from the Licensor Licensed Material. Every recipient of the Licensed Material automatically receives an offer from the Licensor to exercise the Licensed Rights under the terms and conditions of this Public License.
B. No downstream restrictions. You may not offer or impose any additional or different terms or conditions on, or apply any Effective Technological Measures to, the Licensed Material if doing so restricts exercise of the Licensed Rights by any recipient of the Licensed Material.
6. No endorsement. Nothing in this Public License constitutes or may be construed as permission to assert or imply that You are, or that Your use of the Licensed Material is, connected with, or sponsored, endorsed, or granted official status by, the Licensor or others designated to receive attribution as provided in Section 3(a)(1)(A)(i).
b. Other rights.
1. Moral rights, such as the right of integrity, are not licensed under this Public License, nor are publicity, privacy, and/or other similar personality rights; however, to the extent possible, the Licensor waives and/or agrees not to assert any such rights held by the Licensor to the limited extent necessary to allow You to exercise the Licensed Rights, but not otherwise.
2. Patent and trademark rights are not licensed under this Public License.
3. To the extent possible, the Licensor waives any right to collect royalties from You for the exercise of the Licensed Rights, whether directly or through a collecting society under any voluntary or waivable statutory or compulsory licensing scheme. In all other cases the Licensor expressly reserves any right to collect such royalties.
Section 3 License Conditions.
Your exercise of the Licensed Rights is expressly made subject to the following conditions.
a. Attribution.
1. If You Share the Licensed Material (including in modified form), You must:
A. retain the following if it is supplied by the Licensor with the Licensed Material:
i. identification of the creator(s) of the Licensed Material and any others designated to receive attribution, in any reasonable manner requested by the Licensor (including by pseudonym if designated);
ii. a copyright notice;
iii. a notice that refers to this Public License;
iv. a notice that refers to the disclaimer of warranties;
v. a URI or hyperlink to the Licensed Material to the extent reasonably practicable;
B. indicate if You modified the Licensed Material and retain an indication of any previous modifications; and
C. indicate the Licensed Material is licensed under this Public License, and include the text of, or the URI or hyperlink to, this Public License.
2. You may satisfy the conditions in Section 3(a)(1) in any reasonable manner based on the medium, means, and context in which You Share the Licensed Material. For example, it may be reasonable to satisfy the conditions by providing a URI or hyperlink to a resource that includes the required information.
3. If requested by the Licensor, You must remove any of the information required by Section 3(a)(1)(A) to the extent reasonably practicable.
4. If You Share Adapted Material You produce, the Adapter's License You apply must not prevent recipients of the Adapted Material from complying with this Public License.
Section 4 Sui Generis Database Rights.
Where the Licensed Rights include Sui Generis Database Rights that apply to Your use of the Licensed Material:
a. for the avoidance of doubt, Section 2(a)(1) grants You the right to extract, reuse, reproduce, and Share all or a substantial portion of the contents of the database;
b. if You include all or a substantial portion of the database contents in a database in which You have Sui Generis Database Rights, then the database in which You have Sui Generis Database Rights (but not its individual contents) is Adapted Material; and
c. You must comply with the conditions in Section 3(a) if You Share all or a substantial portion of the contents of the database.
For the avoidance of doubt, this Section 4 supplements and does not replace Your obligations under this Public License where the Licensed Rights include other Copyright and Similar Rights.
Section 5 Disclaimer of Warranties and Limitation of Liability.
a. Unless otherwise separately undertaken by the Licensor, to the extent possible, the Licensor offers the Licensed Material as-is and as-available, and makes no representations or warranties of any kind concerning the Licensed Material, whether express, implied, statutory, or other. This includes, without limitation, warranties of title, merchantability, fitness for a particular purpose, non-infringement, absence of latent or other defects, accuracy, or the presence or absence of errors, whether or not known or discoverable. Where disclaimers of warranties are not allowed in full or in part, this disclaimer may not apply to You.
b. To the extent possible, in no event will the Licensor be liable to You on any legal theory (including, without limitation, negligence) or otherwise for any direct, special, indirect, incidental, consequential, punitive, exemplary, or other losses, costs, expenses, or damages arising out of this Public License or use of the Licensed Material, even if the Licensor has been advised of the possibility of such losses, costs, expenses, or damages. Where a limitation of liability is not allowed in full or in part, this limitation may not apply to You.
c. The disclaimer of warranties and limitation of liability provided above shall be interpreted in a manner that, to the extent possible, most closely approximates an absolute disclaimer and waiver of all liability.
Section 6 Term and Termination.
a. This Public License applies for the term of the Copyright and Similar Rights licensed here. However, if You fail to comply with this Public License, then Your rights under this Public License terminate automatically.
b. Where Your right to use the Licensed Material has terminated under Section 6(a), it reinstates:
1. automatically as of the date the violation is cured, provided it is cured within 30 days of Your discovery of the violation; or
2. upon express reinstatement by the Licensor.
c. For the avoidance of doubt, this Section 6(b) does not affect any right the Licensor may have to seek remedies for Your violations of this Public License.
d. For the avoidance of doubt, the Licensor may also offer the Licensed Material under separate terms or conditions or stop distributing the Licensed Material at any time; however, doing so will not terminate this Public License.
e. Sections 1, 5, 6, 7, and 8 survive termination of this Public License.
Section 7 Other Terms and Conditions.
a. The Licensor shall not be bound by any additional or different terms or conditions communicated by You unless expressly agreed.
b. Any arrangements, understandings, or agreements regarding the Licensed Material not stated herein are separate from and independent of the terms and conditions of this Public License.
Section 8 Interpretation.
a. For the avoidance of doubt, this Public License does not, and shall not be interpreted to, reduce, limit, restrict, or impose conditions on any use of the Licensed Material that could lawfully be made without permission under this Public License.
b. To the extent possible, if any provision of this Public License is deemed unenforceable, it shall be automatically reformed to the minimum extent necessary to make it enforceable. If the provision cannot be reformed, it shall be severed from this Public License without affecting the enforceability of the remaining terms and conditions.
c. No term or condition of this Public License will be waived and no failure to comply consented to unless expressly agreed to by the Licensor.
d. Nothing in this Public License constitutes or may be interpreted as a limitation upon, or waiver of, any privileges and immunities that apply to the Licensor or You, including from the legal processes of any jurisdiction or authority.
Creative Commons is not a party to its public licenses. Notwithstanding, Creative Commons may elect to apply one of its public licenses to material it publishes and in those instances will be considered the “Licensor.” Except for the limited purpose of indicating that material is shared under a Creative Commons public license or as otherwise permitted by the Creative Commons policies published at creativecommons.org/policies, Creative Commons does not authorize the use of the trademark “Creative Commons” or any other trademark or logo of Creative Commons without its prior written consent including, without limitation, in connection with any unauthorized modifications to any of its public licenses or any other arrangements, understandings, or agreements concerning use of licensed material. For the avoidance of doubt, this paragraph does not form part of the public licenses.
Creative Commons may be contacted at creativecommons.org.

163
LineareAlgebra2.tex Normal file
View File

@ -0,0 +1,163 @@
\documentclass[german, a4paper]{scrreprt}
%
% Local font definitions -- need to come first
%
\usepackage{libertine}
%\usepackage[libertine]{newtxmath}
%
% Standard macro packages
%
\usepackage{amstext}
\usepackage{amsmath}
\usepackage{amsthm}
\usepackage{amsfonts}
\usepackage{svn-multi}
\usepackage{tikz}
\usepackage{tikz-cd}
\tikzset{commutative diagrams/arrow style=Latin Modern}
\tikzset{xyz/.style={x={(-.385cm,-.385cm)},y={(1cm,0cm)},z={(0cm,1cm)}}, flaeche/.style={fill=red!10,opacity=.5}}
\usetikzlibrary{quotes,babel,angles,calc}
\usepackage{svg}
\input{stdPreamble}
\usepackage{makeidx}
\makeindex
%\DeclareTOCStyleEntries[indent=0pt,dynnumwidth,numsep=1em]{default}{figure,table}
\title{Lineare Algebra 2}
\author{Prof. Dr. Stefan Kebekus}
\DeclareMathOperator{\ad}{ad}
\DeclareMathOperator{\Bij}{Bij}
\DeclareMathOperator{\End}{End}
\DeclareMathOperator{\Hau}{Hau}
\DeclareMathOperator{\Mat}{Mat}
\DeclareMathOperator{\rang}{rang}
\DeclareMathOperator{\sgn}{sgn}
\DeclareMathOperator{\spur}{spur}
\newcommand\video[1]{\href{https://nextcloud.cplx.vm.uni-freiburg.de/index.php/s/L8gbP7PCeXQqtCx/download?path=\%2FVideos&files=#1-Video.mp4}{Erklärvideo #1} \href{https://nextcloud.cplx.vm.uni-freiburg.de/index.php/s/L8gbP7PCeXQqtCx/download?path=\%2FVideos&files=#1-Skript.pdf}{(Skript)}}
\theoremstyle{plain}
\newtheorem{aufgabe}[thm]{Aufgabe}
\newtheorem{satz}[thm]{Satz}
\newtheorem{situation}[thm]{Situation}
\newtheorem{lemma}[thm]{Lemma}
\newtheorem{kor}[thm]{Korollar}
\newtheorem{definition}[thm]{Definition}
\newtheorem{fakt}[thm]{Fakt}
\newtheorem{proposition}[thm]{Proposition}
\newtheorem{prov}[thm]{Provokation}
\theoremstyle{remark}
\newtheorem{bemerkung}[thm]{Bemerkung}
\newtheorem{beobachtung}[thm]{Beobachtung}
\newtheorem{konstruktion}[thm]{Konstruktion}
\newtheorem{bsp}[thm]{Beispiel}
\newtheorem{frage}[thm]{Frage}
\newtheorem{erinnerung}[thm]{Erinnerung}
\newtheorem{erkl}[thm]{Erklärung}
\newtheorem{claim-de}[thm]{Vorüberlegung}
% sideremark
\newcommand\sideremark[1]{\marginpar
[
\hskip .45in
\begin{minipage}{1.25in}
\textsf #1
\end{minipage}
]
{
\hskip -.075in
\begin{minipage}{1.25in}
\textsf #1
\end{minipage}
}}
\makeatletter
\hypersetup{
pdftitle={\@title},
pdfstartview={Fit},
pdfpagelayout={TwoColumnRight},
pdfpagemode={UseOutlines},
bookmarks,
colorlinks,
linkcolor=linkblue,
citecolor=linkred,
urlcolor=linkred
}
\makeatother
\begin{document}
\maketitle
\tableofcontents
\bigskip
\bigskip
\bigskip
\section*{Vorbemerkung}
Dieses Skript zur Vorlesung ``Lineare Algebra II'' wird im Laufe des
Sommersemester 2020 ständig weiter geschrieben. Sie finden die neueste Version
dieses Skriptes immer auf der
\href{https://nextcloud.cplx.vm.uni-freiburg.de/index.php/s/L8gbP7PCeXQqtCx?path=\%2F}{NextCloud}.
Beim Schreiben werden uns ganz bestimmt ein paar Fehler unterlaufen. Falls Sie
ein Problem entdecken oder sich nicht sicher sind, sprechen Sie einen
Mitarbeiter an oder melden Sie sich bitte direkt per E-Mail bei
\href{mailto:stefan.kebekus@math.uni-freiburg.de}{Stefan Kebekus}. Wir
korrigieren schnellstmöglich!
Es gibt im Internet eine große Zahl von guten Quellen, Erklärvideos und
anderem. Wenn Sie eine gute Quelle finden, melden Sie sich bitte. Wir fügen
gerne einen Link in den Text ein.
%
% Das ist Stefan's Teil. Hier bitte nur Fehlerkorrekturen.
%
\part{Endomorphismen}
\input{01-Wiederholung}
\input{02-Jordan}
\input{03-Anwendungen}
\input{04-Cayley-Hamilton}
\part{Euklidische und Hermitesche Vektorräume}
\input{05-Skalarprodukt-im-Rn}
\input{06-Produkte}
\input{07-Euclidian-Unitary}
\input{08-Orthogonal}
\input{09-Orthogonal-Unitary}
\input{10-selfAdjoint}
\input{11-Hauptachsen}
\input{12-Anwendungen}
\part{Multilineare Algebra}
\input{13-multiLinear}
\input{14-direkteSumme}
\input{15-tensor}
\input{16-tensoralgebra}
\input{17-wedge}
\input{18-dehn}
\input{19-ausblick}
\listoffigures
\printindex
\end{document}

3
README.md Normal file
View File

@ -0,0 +1,3 @@
# KommutativeAlgebra
Skript zur Vorlesung "Kommutative Algebra und Einführung in die Algebraische Geometrie"

BIN
images/RechteckFourier.pdf Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 168 KiB

9759
images/RechteckFourier.svg Normal file

File diff suppressed because it is too large Load Diff

After

Width:  |  Height:  |  Size: 1.2 MiB

377
stdPreamble.tex Normal file
View File

@ -0,0 +1,377 @@
%
% PACKAGES
%
% Standard Packages
\usepackage{babel}
\usepackage{enumitem}
\usepackage{hyperref}
\usepackage[utf8]{inputenc}
\usepackage{newunicodechar}
\usepackage{mathtools}
\usepackage{varioref}
\usepackage[arrow,curve,matrix]{xy}
% Graphics Packages
\usepackage{colortbl}
\usepackage{graphicx}
\usepackage{tikz}
% von Jakob
\usepackage{caption}
\usepackage{subcaption}
% Font packages
\usepackage{mathrsfs}
%
% GENERAL TYPESETTING
%
% Colours for hyperlinks
\definecolor{linkred}{rgb}{0.7,0.2,0.2}
\definecolor{linkblue}{rgb}{0,0.2,0.6}
% Limit table of contents to section titles
\setcounter{tocdepth}{1}
% Numbering of figures (see below for numbering of equations)
\numberwithin{figure}{section}
% Add an uparrow to the bibliography entries, just before the back-list of references
\usepackage[hyperpageref]{backref}
\renewcommand{\backref}[1]{$\uparrow$~#1}
% Numbering of parts in roman numbers
\renewcommand\thepart{\Roman{part}}
% Sloppy formatting -- often looks better
\sloppy
% Changes the layout of descriptions and itemized lists. The indent specified in
% the original amsart style is too much for my taste.
\setdescription{labelindent=\parindent, leftmargin=2\parindent}
\setitemize[1]{labelindent=\parindent, leftmargin=2\parindent}
\setenumerate[1]{labelindent=0cm, leftmargin=*, widest=iiii}
%
% Input characters
%
\newunicodechar{α}{\ensuremath{\alpha}}
\newunicodechar{β}{\ensuremath{\beta}}
\newunicodechar{χ}{\ensuremath{\chi}}
\newunicodechar{δ}{\ensuremath{\delta}}
\newunicodechar{ε}{\ensuremath{\varepsilon}}
\newunicodechar{Δ}{\ensuremath{\Delta}}
\newunicodechar{η}{\ensuremath{\eta}}
\newunicodechar{γ}{\ensuremath{\gamma}}
\newunicodechar{Γ}{\ensuremath{\Gamma}}
\newunicodechar{ι}{\ensuremath{\iota}}
\newunicodechar{κ}{\ensuremath{\kappa}}
\newunicodechar{λ}{\ensuremath{\lambda}}
\newunicodechar{Λ}{\ensuremath{\Lambda}}
\newunicodechar{ν}{\ensuremath{\nu}}
\newunicodechar{μ}{\ensuremath{\mu}}
\newunicodechar{ω}{\ensuremath{\omega}}
\newunicodechar{Ω}{\ensuremath{\Omega}}
\newunicodechar{π}{\ensuremath{\pi}}
\newunicodechar{Π}{\ensuremath{\Pi}}
\newunicodechar{φ}{\ensuremath{\phi}}
\newunicodechar{Φ}{\ensuremath{\Phi}}
\newunicodechar{ψ}{\ensuremath{\psi}}
\newunicodechar{Ψ}{\ensuremath{\Psi}}
\newunicodechar{ρ}{\ensuremath{\rho}}
\newunicodechar{σ}{\ensuremath{\sigma}}
\newunicodechar{Σ}{\ensuremath{\Sigma}}
\newunicodechar{τ}{\ensuremath{\tau}}
\newunicodechar{θ}{\ensuremath{\theta}}
\newunicodechar{Θ}{\ensuremath{\Theta}}
\newunicodechar{ξ}{\ensuremath{\xi}}
\newunicodechar{Ξ}{\ensuremath{\Xi}}
\newunicodechar{ζ}{\ensuremath{\zeta}}
\newunicodechar{}{\ensuremath{\ell}}
\newunicodechar{ï}{\"{\i}}
\newunicodechar{𝔸}{\ensuremath{\bA}}
\newunicodechar{𝔹}{\ensuremath{\bB}}
\newunicodechar{}{\ensuremath{\bC}}
\newunicodechar{𝔻}{\ensuremath{\bD}}
\newunicodechar{𝔼}{\ensuremath{\bE}}
\newunicodechar{𝔽}{\ensuremath{\bF}}
\newunicodechar{}{\ensuremath{\bN}}
\newunicodechar{}{\ensuremath{\bP}}
\newunicodechar{}{\ensuremath{\bQ}}
\newunicodechar{}{\ensuremath{\bR}}
\newunicodechar{𝕏}{\ensuremath{\bX}}
\newunicodechar{}{\ensuremath{\bZ}}
\newunicodechar{𝒜}{\ensuremath{\sA}}
\newunicodechar{}{\ensuremath{\sB}}
\newunicodechar{𝒞}{\ensuremath{\sC}}
\newunicodechar{𝒟}{\ensuremath{\sD}}
\newunicodechar{}{\ensuremath{\sE}}
\newunicodechar{}{\ensuremath{\sF}}
\newunicodechar{𝒢}{\ensuremath{\sG}}
\newunicodechar{}{\ensuremath{\sH}}
\newunicodechar{𝒥}{\ensuremath{\sJ}}
\newunicodechar{}{\ensuremath{\sL}}
\newunicodechar{𝒪}{\ensuremath{\sO}}
\newunicodechar{𝒬}{\ensuremath{\sQ}}
\newunicodechar{𝒯}{\ensuremath{\sT}}
\newunicodechar{𝒲}{\ensuremath{\sW}}
\newunicodechar{}{\ensuremath{\partial}}
\newunicodechar{}{\ensuremath{\nabla}}
\newunicodechar{}{\ensuremath{\circlearrowleft}}
\newunicodechar{}{\ensuremath{\infty}}
\newunicodechar{}{\ensuremath{\oplus}}
\newunicodechar{}{\ensuremath{\otimes}}
\newunicodechar{}{\ensuremath{\bullet}}
\newunicodechar{Λ}{\ensuremath{\wedge}}
\newunicodechar{}{\ensuremath{\into}}
\newunicodechar{}{\ensuremath{\to}}
\newunicodechar{}{\ensuremath{\mapsto}}
\newunicodechar{}{\ensuremath{\times}}
\newunicodechar{}{\ensuremath{\cup}}
\newunicodechar{}{\ensuremath{\cap}}
\newunicodechar{}{\ensuremath{\supsetneq}}
\newunicodechar{}{\ensuremath{\supseteq}}
\newunicodechar{}{\ensuremath{\supset}}
\newunicodechar{}{\ensuremath{\subsetneq}}
\newunicodechar{}{\ensuremath{\subseteq}}
\newunicodechar{}{\ensuremath{\subset}}
\newunicodechar{}{\ensuremath{\not \subset}}
\newunicodechar{}{\ensuremath{\geq}}
\newunicodechar{}{\ensuremath{\neq}}
\newunicodechar{}{\ensuremath{\gg}}
\newunicodechar{}{\ensuremath{\ll}}
\newunicodechar{}{\ensuremath{\leq}}
\newunicodechar{}{\ensuremath{\in}}
\newunicodechar{}{\ensuremath{\not \in}}
\newunicodechar{}{\ensuremath{\setminus}}
\newunicodechar{}{\ensuremath{\circ}}
\newunicodechar{°}{\ensuremath{^\circ}}
\newunicodechar{}{\ifmmode\mathellipsis\else\textellipsis\fi}
\newunicodechar{·}{\ensuremath{\cdot}}
\newunicodechar{}{\ensuremath{\cdots}}
\newunicodechar{}{\ensuremath{\emptyset}}
\newunicodechar{}{\ensuremath{\Rightarrow}}
\newunicodechar{}{\ensuremath{^0}}
\newunicodechar{¹}{\ensuremath{^1}}
\newunicodechar{²}{\ensuremath{^2}}
\newunicodechar{³}{\ensuremath{^3}}
\newunicodechar{}{\ensuremath{^4}}
\newunicodechar{}{\ensuremath{^5}}
\newunicodechar{}{\ensuremath{^6}}
\newunicodechar{}{\ensuremath{^7}}
\newunicodechar{}{\ensuremath{^8}}
\newunicodechar{}{\ensuremath{^9}}
\newunicodechar{}{\ensuremath{^i}}
\newunicodechar{}{\ensuremath{\lceil}}
\newunicodechar{}{\ensuremath{\rceil}}
\newunicodechar{}{\ensuremath{\lfloor}}
\newunicodechar{}{\ensuremath{\rfloor}}
\newunicodechar{}{\ensuremath{\cong}}
\newunicodechar{}{\ensuremath{\Leftrightarrow}}
\newunicodechar{}{\ensuremath{\exists}}
\newunicodechar{±}{\ensuremath{\pm}}
%
% FONT DEFINTIONS
%
% Script Font used for sheaves
\DeclareFontFamily{OMS}{rsfs}{\skewchar\font'60}
\DeclareFontShape{OMS}{rsfs}{m}{n}{<-5>rsfs5 <5-7>rsfs7 <7->rsfs10 }{}
\DeclareSymbolFont{rsfs}{OMS}{rsfs}{m}{n}
\DeclareSymbolFontAlphabet{\scr}{rsfs}
\DeclareSymbolFontAlphabet{\scr}{rsfs}
% Code from mathabx.sty and mathabx.dcl, define macro \wcheck
\DeclareFontFamily{U}{mathx}{\hyphenchar\font45}
\DeclareFontShape{U}{mathx}{m}{n}{
<5> <6> <7> <8> <9> <10>
<10.95> <12> <14.4> <17.28> <20.74> <24.88>
mathx10
}{}
\DeclareSymbolFont{mathx}{U}{mathx}{m}{n}
\DeclareFontSubstitution{U}{mathx}{m}{n}
\DeclareMathAccent{\wcheck}{0}{mathx}{"71}
%
% MATHEMATICS DEFINITIONS
%
% Operators
\DeclareMathOperator{\Aut}{Aut}
\DeclareMathOperator{\codim}{codim}
\DeclareMathOperator{\coker}{coker}
\DeclareMathOperator{\const}{const}
\DeclareMathOperator{\Ext}{Ext}
\DeclareMathOperator{\Hom}{Hom}
\DeclareMathOperator{\Id}{Id}
\DeclareMathOperator{\Image}{Image}
\DeclareMathOperator{\img}{img}
\DeclareMathOperator{\Pic}{Pic}
\DeclareMathOperator{\rank}{rank}
\DeclareMathOperator{\Ramification}{Ramification}
\DeclareMathOperator{\red}{red}
\DeclareMathOperator{\reg}{reg}
\DeclareMathOperator{\sat}{sat}
\DeclareMathOperator{\sEnd}{\sE\negthinspace \mathit{nd}}
\DeclareMathOperator{\sing}{sing}
\DeclareMathOperator{\Spec}{Spec}
\DeclareMathOperator{\Sym}{Sym}
\DeclareMathOperator{\supp}{supp}
\DeclareMathOperator{\tor}{tor}
\DeclareMathOperator{\Tor}{Tor}
\DeclareMathOperator{\Frob}{Frob}
% Sheaves
\newcommand{\sA}{\scr{A}}
\newcommand{\sB}{\scr{B}}
\newcommand{\sC}{\scr{C}}
\newcommand{\sD}{\scr{D}}
\newcommand{\sE}{\scr{E}}
\newcommand{\sF}{\scr{F}}
\newcommand{\sG}{\scr{G}}
\newcommand{\sH}{\scr{H}}
\newcommand{\sHom}{\scr{H}\negthinspace om}
\newcommand{\sI}{\scr{I}}
\newcommand{\sJ}{\scr{J}}
\newcommand{\sK}{\scr{K}}
\newcommand{\sL}{\scr{L}}
\newcommand{\sM}{\scr{M}}
\newcommand{\sN}{\scr{N}}
\newcommand{\sO}{\scr{O}}
\newcommand{\sP}{\scr{P}}
\newcommand{\sQ}{\scr{Q}}
\newcommand{\sR}{\scr{R}}
\newcommand{\sS}{\scr{S}}
\newcommand{\sT}{\scr{T}}
\newcommand{\sU}{\scr{U}}
\newcommand{\sV}{\scr{V}}
\newcommand{\sW}{\scr{W}}
\newcommand{\sX}{\scr{X}}
\newcommand{\sY}{\scr{Y}}
\newcommand{\sZ}{\scr{Z}}
% C-infty sheaves
\newcommand{\cA}{\mathcal A}
\newcommand{\cC}{\mathcal C}
\newcommand{\cD}{\mathcal D}
\newcommand{\cE}{\mathcal E}
\newcommand{\cM}{\mathcal M}
\newcommand{\cN}{\mathcal N}
\newcommand{\cV}{\mathcal V}
% Blackboard Bold Symbols
\newcommand{\bA}{\mathbb{A}}
\newcommand{\bB}{\mathbb{B}}
\newcommand{\bC}{\mathbb{C}}
\newcommand{\bD}{\mathbb{D}}
\newcommand{\bE}{\mathbb{E}}
\newcommand{\bF}{\mathbb{F}}
\newcommand{\bG}{\mathbb{G}}
\newcommand{\bH}{\mathbb{H}}
\newcommand{\bI}{\mathbb{I}}
\newcommand{\bJ}{\mathbb{J}}
\newcommand{\bK}{\mathbb{K}}
\newcommand{\bL}{\mathbb{L}}
\newcommand{\bM}{\mathbb{M}}
\newcommand{\bN}{\mathbb{N}}
\newcommand{\bO}{\mathbb{O}}
\newcommand{\bP}{\mathbb{P}}
\newcommand{\bQ}{\mathbb{Q}}
\newcommand{\bR}{\mathbb{R}}
\newcommand{\bS}{\mathbb{S}}
\newcommand{\bT}{\mathbb{T}}
\newcommand{\bU}{\mathbb{U}}
\newcommand{\bV}{\mathbb{V}}
\newcommand{\bW}{\mathbb{W}}
\newcommand{\bX}{\mathbb{X}}
\newcommand{\bY}{\mathbb{Y}}
\newcommand{\bZ}{\mathbb{Z}}
% Sans serif symbols
\newcommand{\aB}{{\sf B}}
\newcommand{\aD}{{\sf D}}
\newcommand{\aE}{{\sf E}}
\newcommand{\aF}{{\sf F}}
% Theorem type environments
\theoremstyle{plain}
\newtheorem{thm}{Theorem}[section]
\newtheorem{aassumption}[thm]{Additional Assumption}
\newtheorem{conjecture}[thm]{Conjecture}
\newtheorem{cor}[thm]{Corollary}
\newtheorem{defn}[thm]{Definition}
\newtheorem{fact}[thm]{Fact}
\newtheorem{lem}[thm]{Lemma}
\newtheorem{lemDef}[thm]{Lemma and Definition}
\newtheorem{lemNot}[thm]{Lemma and Notation}
\newtheorem{problem}[thm]{Problem}
\newtheorem{prop}[thm]{Proposition}
\newtheorem{setup}[thm]{Setup}
\newtheorem{subthm}[thm]{Sub-Theorem}
\newtheorem{summary}[thm]{Summary}
\theoremstyle{remark}
\newtheorem{assumption}[thm]{Assumption}
\newtheorem{asswlog}[thm]{Assumption w.l.o.g.}
\newtheorem{claim}[thm]{Claim}
\newtheorem{c-n-d}[thm]{Claim and Definition}
\newtheorem{consequence}[thm]{Consequence}
\newtheorem{construction}[thm]{Construction}
\newtheorem{computation}[thm]{Computation}
\newtheorem{example}[thm]{Example}
\newtheorem{explanation}[thm]{Explanation}
\newtheorem{notation}[thm]{Notation}
\newtheorem{obs}[thm]{Observation}
\newtheorem{rem}[thm]{Remark}
\newtheorem{question}[thm]{Question}
\newtheorem*{rem-nonumber}{Remark}
\newtheorem{setting}[thm]{Setting}
\newtheorem{warning}[thm]{Warning}
% Numbering of equations. Number equation subordniate to theorems.
\numberwithin{equation}{thm}
% Style for enumerated lists. The following makes sure that enumerated lists are
% numbered in the same way as equations are.
\setlist[enumerate]{label=(\thethm.\arabic*), before={\setcounter{enumi}{\value{equation}}}, after={\setcounter{equation}{\value{enumi}}}}
% Shorthand notations
\newcommand{\into}{\hookrightarrow}
\newcommand{\onto}{\twoheadrightarrow}
\newcommand{\wtilde}{\widetilde}
\newcommand{\what}{\widehat}
%
% HYPENTATION
%
\hyphenation{com-po-nents}
\hyphenation{pos-i-tive}
\hyphenation{Theo-rem}
\hyphenation{Vojta}
%
% SPECIALIZED MACROS
%
% CounterStep - increases equation counter
\newcommand\CounterStep{\addtocounter{thm}{1}\setcounter{equation}{0}}
% factor - quotient groups
\newcommand{\factor}[2]{\left. \raise 2pt\hbox{$#1$} \right/\hskip -2pt\raise -2pt\hbox{$#2$}}