Spellchecking

This commit is contained in:
Stefan Kebekus 2025-05-23 14:48:51 +02:00
parent 2bc4283c2d
commit 9a0ab78a70
3 changed files with 103 additions and 105 deletions

View File

@ -56,3 +56,7 @@ Identifikationen
semi-linear semi-linear
Quotientenräume Quotientenräume
Rückzugsabbildung Rückzugsabbildung
Determinanten-Multiplikationssatz
Komplexifizierung
komplexifizierten
komplexifizierte

View File

@ -50,3 +50,5 @@
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"} {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"} {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"} {"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}

View File

@ -5,12 +5,12 @@
\section{Orthogonale und unitäre Abbildungen} \section{Orthogonale und unitäre Abbildungen}
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands'' kennen Transformationen des $^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg „orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
die folgende Situation. folgende Situation.
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1} \begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
@ -30,19 +30,19 @@ die folgende Situation.
\] \]
\end{defn} \end{defn}
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3} \begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
Transformation des $^n$ bezüglich des Euklidischen Abstands das Transformation des $^n$ bezüglich des Euklidischen Abstands das
Standardskalarprodukt erhält. Damit ist klar, dass Standardskalarprodukt erhält. Damit ist klar, dass
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $^n$ Definition~\vref{defn-orthoTraf} (orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands'') ein Spezialfall von bezüglich des Euklidischen Abstands) ein Spezialfall von
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
vorliegende Skript einigermaßen konsistent! vorliegende Skript einigermaßen konsistent!
\end{beobachtung} \end{beobachtung}
\begin{bsp} \begin{bsp}
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
``orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands'' orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$ Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
eine Matrix die an Achsen dreht oder spiegelt. eine Matrix die an Achsen dreht oder spiegelt.
\end{bsp} \end{bsp}
@ -52,13 +52,13 @@ die folgende Situation.
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
\[ \[
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|. \bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
\] \]
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt. zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe} \end{aufgabe}
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6} \begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
unitär. Dann gilt Folgendes. unitär. Dann gilt Folgendes.
\begin{enumerate} \begin{enumerate}
@ -80,18 +80,18 @@ die folgende Situation.
\video{13-3} \video{13-3}
\end{proof} \end{proof}
\begin{rem}[Die Determinante]\label{rem:9-1-7} \begin{rem}[Die Determinante]\label{rem:9-1-7}%
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung \ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
Frage. infrage.
\end{rem} \end{rem}
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten] \begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär'' folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt: falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
\[ \[
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}). \vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
@ -107,7 +107,7 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
Transformation eine Gruppe bilden. Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9} \begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
@ -125,7 +125,7 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
$^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen $^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so. beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1} \begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind. Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
@ -139,7 +139,7 @@ beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
wie immer für die komplex-konjugierte Matrix. wie immer für die komplex-konjugierte Matrix.
\end{aufgabe} \end{aufgabe}
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'', Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
erweitern. erweitern.
@ -148,12 +148,12 @@ erweitern.
\begin{enumerate} \begin{enumerate}
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt \item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung \emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
$A^{-1} = A^t$ gilt. A^t$ gilt.
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt \item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung \emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
$A^{-1} = \overline{A^t}$ gilt. \overline{A^t}$ gilt.
\end{enumerate} \end{enumerate}
\end{defn} \end{defn}
@ -165,17 +165,16 @@ erweitern.
\mathcal{O}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\ \mathcal{O}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\ \mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
\mathcal{U}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\ \mathcal{U}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe} \mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
\end{align*} \end{align*}
Der Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$} B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
Gruppen handelt. Gruppen handelt.
\end{notation} \end{notation}
\begin{proposition}[Einfache Eigenschaften] \begin{proposition}[Einfache Eigenschaften]
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise $A ∈ \Mat(n
$A ∈ \Mat(n n, )$. Dann sind folgende Aussagen äquivalent. n, )$. Dann sind folgende Aussagen äquivalent.
\begin{enumerate} \begin{enumerate}
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär. \item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
@ -196,9 +195,9 @@ erweitern.
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij} A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
\] \]
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber genau
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und \ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
betrachte dann $A · A^t$. betrachte dann $A · A^t$.
\end{proof} \end{proof}
@ -243,12 +242,12 @@ zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist un
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
die orthogonalen $2 2$-Matrizen beschreibe. Um die Fallunterscheidung zu die orthogonalen $22$-Matrizen beschreibe. Um die Fallunterscheidung zu
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist. sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7} \begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, so dass folgende Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, sodass folgende
Gleichung gilt. Gleichung gilt.
\[ \[
A = A =
@ -274,15 +273,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\end{erkl} \end{erkl}
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
sind. sind.
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9} \begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
folgende Blockgestalt hat Blockgestalt hat
\[ \[
\begin{pmatrix} \begin{pmatrix}
\Id_{a a} & \\ \Id_{a a} & \\
@ -292,9 +291,8 @@ sind.
& & & & A_k \\ & & & & A_k \\
\end{pmatrix} \end{pmatrix}
\] \]
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{}$ jeweils
$\Id_{}$ jeweils jeweils Einheitsmatrizen der Einheitsmatrizen der entsprechenden Größe sind.
entsprechenden Größe sind.
\end{satz} \end{satz}
@ -306,11 +304,10 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
einem reellen Vektorraum einen komplexen Vektorraum macht. einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4} \begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
einen komplexen Vektorraum $V^{}$ wie folgt: wir betrachten die Menge einen komplexen Vektorraum $V^$ wie folgt: Wir betrachten die Menge $V^ :=
$V^{} := V V$ und definieren eine Addition durch komponentenweise V V$ und definieren eine Addition durch komponentenweise Addition
Addition
\[ \[
+ : (V V) (V V) → V V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2) + : (V V) (V V) → V V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
\] \]
@ -318,7 +315,7 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
\[ \[
· : (V V) → V V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}). · : (V V) → V V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
\] \]
Rechnen Sie nach, dass dies tatsächlich eine $$-Vektorraum ist, wen wir als Rechnen Sie nach, dass dies tatsächlich ein $$-Vektorraum ist, wen wir als
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines \emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
Vektorraumes} bezeichnen. Vektorraumes} bezeichnen.
\end{konstruktion} \end{konstruktion}
@ -326,8 +323,8 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{notation}[Konjugation und komplexifizierung von Vektoren] \begin{notation}[Konjugation und komplexifizierung von Vektoren]
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+\vec{w}$, dann statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+\vec{w}$, dann
wird die Formel für die skalare Multiplikation gleich viel verständlicher. wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
komplexifiziertem Vektorraum} komplexifiziertem Vektorraum}
\[ \[
\overline{} : V V → V V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr) \overline{} : V V → V V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
@ -335,47 +332,45 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
Vektorraum in seine Komplexifizierung} Vektorraum in seine Komplexifizierung}
\[ \[
ι : V → V^{}, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr). ι : V → V^, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
\] \]
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^{}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ Teilmenge von $V^$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
schreiben $\vec{v}^{\:}$. schreiben $\vec{v}^{\:}$.
\end{notation} \end{notation}
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6} \begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
In der Situation von Konstruktion~\ref{kons:9-4-4} sei In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen \vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis nach, dass die komplexifizierte Basis $B^ := \{ \vec{v}^{\:}_1, …,
$B^{} := \{ \vec{v}^{\:}_1, …, \vec{v}^{\:}_n \} ⊂ V^{}$ \vec{v}^{\:}_n \} ⊂ V^$ dann eine Basis von $V^$. Noch besser: wenn $f : V
dann eine Basis von $V^{}$. Noch besser: wenn $f : V → V$ linear ist, → V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung Abbildung $f^ : V^ → V^$, sodass für alle Indizes $i$ gilt:
$f^{} : V^{} → V^{}$, so dass für alle Indizes $i$ gilt: $f^(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass $f^$
$f^{}(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^$ die
$f^{}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{}$ die
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer \emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
Abbildung}. Abbildung}.
\end{konstruktion} \end{konstruktion}
\begin{beobachtung} \begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
Vektor $\vec{v} ∈ V$ die Gleichheit Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ = f^(\vec{v}^{\:})$ gilt.
$f(\vec{v})^{} = f^{}(\vec{v}^{\:})$ gilt.
\end{beobachtung} \end{beobachtung}
\begin{beobachtung} \begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
Gleichheiten Gleichheiten
\[ \[
\Mat^B_B(f) = \Mat^{B^{}}_{B^{\:}}(f^{}) \quad\text{und}\quad \Mat^B_B(f) = \Mat^{B^}_{B^{\:}}(f^) \quad\text{und}\quad
χ_f(t) = χ_{f^{}}(t) χ_f(t) = χ_{f^}(t)
\] \]
gelten. Insbesondere ist $\Mat^{B^{}}_{B^{\:}}(f^{})$ eine reelle gelten. Insbesondere ist $\Mat^{B^}_{B^{\:}}(f^)$ eine reelle Matrix und
Matrix und $χ_{f^{}}$ ist ein reelles Polynom. Außerdem ist $f^{}$ mit $χ_{f^}$ ist ein reelles Polynom. Außerdem ist $f^$ mit der Konjugation
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^$ die
$\vec{v} ∈ V^{}$ die Gleichung Gleichung
\begin{equation}\label{eq:9-4-7-1} \begin{equation}\label{eq:9-4-7-1}
f^{}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{}\bigl( \vec{v} \bigr)}. f^\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^\bigl( \vec{v} \bigr)}.
\end{equation} \end{equation}
\end{beobachtung} \end{beobachtung}
@ -384,40 +379,37 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$ Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus $f|_U : U → U$ einen Isomorphismus von $U$ liefert.
von $U$ liefert.
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10} \begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
$f(U) ⊆ U$ ist.
\end{lemma} \end{lemma}
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}] \begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr einfach.
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$
Fall, dass $f$ keinen reellen Eigenwert hat. keinen reellen Eigenwert hat.
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des charakteristischen
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell, Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende Rechnung zeigt, dass das
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
Nullstelle ist,
\[ \[
χ_f(\overline{λ}) = \sum a_\overline{λ}ⁱ = \sum a_\overline{λⁱ} χ_f(\overline{λ}) = \sum a_\overline{λ}ⁱ = \sum a_\overline{λⁱ}
\overset{a_i ∈ }{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum \overset{a_i ∈ }{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
a_i·λⁱ} = \overline{χ_f(λ)} = 0. a_i·λⁱ} = \overline{χ_f(λ)} = 0.
\] \]
Ich betrachte jetzt für den Endomorphismus $f^{}$ einen Eigenvektor Ich betrachte jetzt für den Endomorphismus $f^$ einen Eigenvektor $\vec{v} =
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{}$ zum Eigenwert $λ$. (\vec{v}_1, \vec{v}_2) ∈ V^$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{}$ ein Eigenvektor zum -\vec{v}_2) ∈ V^$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$ Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $$-linear unabhängig,
ist dann $$-linear unabhängig, ebenso die Menge ebenso die Menge
\[ \[
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} % \left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}. = \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
@ -425,8 +417,8 @@ von $U$ liefert.
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
zwei-dimensionaler reeller Unterraum ist. Außerdem ist zwei-dimensionaler reeller Unterraum ist. Außerdem ist
\begin{align*} \begin{align*}
f(\vec{v}_1) & = f^{}(\vec{v_1}) = f^{} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\ f(\vec{v}_1) & = f^(\vec{v_1}) = f^ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^{}(\vec{v}) + f^{}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\ & = \frac{1}{2}·\left( f^(\vec{v}) + f^(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
& = a·\vec{v}_1 - b·\vec{v}_2. & = a·\vec{v}_1 - b·\vec{v}_2.
\end{align*} \end{align*}
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von