From 9a0ab78a701cf96e6aaf608b283a6b5c003c5721 Mon Sep 17 00:00:00 2001
From: Stefan Kebekus <kebekus@users.noreply.github.com>
Date: Fri, 23 May 2025 14:48:51 +0200
Subject: [PATCH] Spellchecking

---
 .vscode/ltex.dictionary.de-DE.txt           |   4 +
 .vscode/ltex.hiddenFalsePositives.de-DE.txt |   2 +
 09-Orthogonal-Unitary.tex                   | 202 ++++++++++----------
 3 files changed, 103 insertions(+), 105 deletions(-)

diff --git a/.vscode/ltex.dictionary.de-DE.txt b/.vscode/ltex.dictionary.de-DE.txt
index 3c7d9a8..7e55189 100644
--- a/.vscode/ltex.dictionary.de-DE.txt
+++ b/.vscode/ltex.dictionary.de-DE.txt
@@ -56,3 +56,7 @@ Identifikationen
 semi-linear
 Quotientenräume
 Rückzugsabbildung
+Determinanten-Multiplikationssatz
+Komplexifizierung
+komplexifizierten
+komplexifizierte
diff --git a/.vscode/ltex.hiddenFalsePositives.de-DE.txt b/.vscode/ltex.hiddenFalsePositives.de-DE.txt
index 25599ac..275a27a 100644
--- a/.vscode/ltex.hiddenFalsePositives.de-DE.txt
+++ b/.vscode/ltex.hiddenFalsePositives.de-DE.txt
@@ -50,3 +50,5 @@
 {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
 {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
 {"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
+{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
+{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
diff --git a/09-Orthogonal-Unitary.tex b/09-Orthogonal-Unitary.tex
index 9869eb9..d65f73e 100644
--- a/09-Orthogonal-Unitary.tex
+++ b/09-Orthogonal-Unitary.tex
@@ -5,12 +5,12 @@
 
 \section{Orthogonale und unitäre Abbildungen}
 
-Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
-Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands'' kennen
-gelernt.  Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
-in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
-Begriff ``orthogonale Transformation'' verallgemeinern.  Wir betrachten durchweg
-die folgende Situation.
+Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits „orthogonale
+Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
+Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
+größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
+„orthogonale Transformation“ verallgemeinern.  Wir betrachten durchweg die
+folgende Situation.
 
 \begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
   Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
@@ -30,19 +30,19 @@ die folgende Situation.
   \]
 \end{defn}
 
-\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
+\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
   Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
   Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das
   Standardskalarprodukt erhält.  Damit ist klar, dass
-  Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $ℝ^n$
-  bezüglich des Euklidischen Abstands'') ein Spezialfall von
+  Definition~\vref{defn-orthoTraf} („orthogonale Transformation des $ℝ^n$
+  bezüglich des Euklidischen Abstands“) ein Spezialfall von
   Definition~\ref{def:9-1-2} ist.  Wenigstens an dieser Stelle ist das
   vorliegende Skript einigermaßen konsistent!
 \end{beobachtung}
 
 \begin{bsp}
   Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
-  ``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands''
+  „orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands“
   Beispiele für orthogonale Transformationen liefern.  Konkret: $V = ℝ²$ und $f$
   eine Matrix die an Achsen dreht oder spiegelt.
 \end{bsp}
@@ -52,13 +52,13 @@ die folgende Situation.
   andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
   unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
   \[
-    \bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
+    \bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
   \]
   gilt.  Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
   zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
 \end{aufgabe}
 
-\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
+\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
   In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
   unitär.  Dann gilt Folgendes.
   \begin{enumerate}
@@ -80,18 +80,18 @@ die folgende Situation.
   \video{13-3}
 \end{proof}
 
-\begin{rem}[Die Determinante]\label{rem:9-1-7}
+\begin{rem}[Die Determinante]\label{rem:9-1-7}%
   Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
   Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!).  In der
   Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
   \ref{il:9-1-7-2}, dass $|\det f|=1$ ist.  Im Fall einer orthogonalen Abbildung
-  ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
-  Frage.
+  ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
+  infrage.
 \end{rem}
 
 \begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
   Situation wie in \ref{sit:9-1-1}.  Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
-  folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
+  folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
   falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
   \[
     \vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
@@ -107,14 +107,14 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
 Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
 Transformation eine Gruppe bilden.
 
-\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
+\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
   Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
   Euklidischer oder unitärer Vektorraum.  Dann bilden die orthogonalen
   beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$.  Wir
   nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes
-    $\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
-    Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
-    unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
+  $\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
+  Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
+  unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
   \index{unitäre Gruppe!eines unitären Vektorraumes}.
 \end{defn}
 
@@ -125,7 +125,7 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
 $ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
 beschrieben.  Das geht in unserem verallgemeinerten Fall ganz genau so.
 
-\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
+\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
   In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
   angeordnete Orthonormalbasis von $V$.  Beweisen Sie in völliger Analogie zu
   Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
@@ -139,7 +139,7 @@ beschrieben.  Das geht in unserem verallgemeinerten Fall ganz genau so.
   wie immer für die komplex-konjugierte Matrix.
 \end{aufgabe}
 
-Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
+Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
 die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
 erweitern.
 
@@ -148,12 +148,12 @@ erweitern.
   
   \begin{enumerate}
   \item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt
-    \emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
-    $A^{-1} = A^t$ gilt.
+    \emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
+    A^t$ gilt.
     
   \item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt
-    \emph{unitär}\index{unitär!Matrix}, falls die Gleichung
-    $A^{-1} = \overline{A^t}$ gilt.
+    \emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
+    \overline{A^t}$ gilt.
   \end{enumerate}
 \end{defn}
 
@@ -165,17 +165,16 @@ erweitern.
     \mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
     \mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
     \mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
-    \mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
+    \mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
   \end{align*}
-  Der
-  Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
-  stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
+  Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
+  B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
   Gruppen handelt.
 \end{notation}
 
 \begin{proposition}[Einfache Eigenschaften]
-  Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise
-  $A ∈ \Mat(n ⨯ n, ℂ)$.  Dann sind folgende Aussagen äquivalent.
+  Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise $A ∈ \Mat(n ⨯
+  n, ℂ)$.  Dann sind folgende Aussagen äquivalent.
   \begin{enumerate}
   \item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
     
@@ -196,9 +195,9 @@ erweitern.
     A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
   \]
   Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
-  Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt.  Das gilt in unserem Fall aber
-  genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
-  gerade Bedingung \ref{il:9-2-4-2}.  Die Äquivalenz von \ref{il:9-2-4-1} und
+  Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt.  Das gilt in unserem Fall aber genau
+  dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
+  Bedingung \ref{il:9-2-4-2}.  Die Äquivalenz von \ref{il:9-2-4-1} und
   \ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
   betrachte dann $A · A^t$.
 \end{proof}
@@ -243,12 +242,12 @@ zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist un
 Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
 schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
 dementsprechend auch länger als der Vorhergehende.  Ich fange damit an, dass ich
-die orthogonalen $2⨯ 2$-Matrizen beschreibe.  Um die Fallunterscheidung zu
+die orthogonalen $2⨯2$-Matrizen beschreibe.  Um die Fallunterscheidung zu
 verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
 sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
 
-\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
-  Sei $A ∈ \mathcal{O}_2$.  Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende
+\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
+  Sei $A ∈ \mathcal{O}_2$.  Dann gibt es eine Zahl $α ∈ ℝ$, sodass folgende
   Gleichung gilt.
   \[
     A =
@@ -274,15 +273,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
 \end{erkl}
 
 Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
-als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
+als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
 soll, für beliebigen Index $n$.  Der folgende Satz zeigt, wie die orthogonalen
 Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
 sind.
 
-\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
-  In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal.  Dann gibt es eine
-  angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
-  folgende Blockgestalt hat
+\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
+  In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal.  Dann gibt es eine
+  angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
+  Blockgestalt hat
   \[
     \begin{pmatrix}
       \Id_{a ⨯ a} & \\
@@ -292,9 +291,8 @@ sind.
       & & & & A_k \\
     \end{pmatrix}
   \]
-  wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
-  $\Id_{• ⨯ •}$ jeweils jeweils Einheitsmatrizen der
-  entsprechenden Größe sind.
+  wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{• ⨯ •}$ jeweils
+  Einheitsmatrizen der entsprechenden Größe sind.
 \end{satz}
 
 
@@ -306,11 +304,10 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
 Vektorräume reden dürften.  Deshalb diskutiere ich ein Verfahren, wie man aus
 einem reellen Vektorraum einen komplexen Vektorraum macht.
 
-\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
+\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
   Es sei $V$ ein endlich-dimensionaler reeller Vektorraum.  Wir konstruieren
-  einen komplexen Vektorraum $V^{ℂ}$ wie folgt: wir betrachten die Menge
-  $V^{ℂ} := V ⨯ V$ und definieren eine Addition durch komponentenweise
-  Addition
+  einen komplexen Vektorraum $V^ℂ$ wie folgt: Wir betrachten die Menge $V^ℂ :=
+  V ⨯ V$ und definieren eine Addition durch komponentenweise Addition
   \[
     + : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
   \]
@@ -318,64 +315,62 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
   \[
     · : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
   \]
-  Rechnen Sie nach, dass dies tatsächlich eine $ℂ$-Vektorraum ist, wen wir als
+  Rechnen Sie nach, dass dies tatsächlich ein $ℂ$-Vektorraum ist, wen wir als
   \emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
-    Vektorraumes} bezeichnen.
+  Vektorraumes} bezeichnen.
 \end{konstruktion}
 
 \begin{notation}[Konjugation und komplexifizierung von Vektoren]
   In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
   statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann
-  wird die Formel für die skalare Multiplikation gleich viel verständlicher.
-  Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
-    komplexifiziertem Vektorraum}
+  wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
+  betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
+  komplexifiziertem Vektorraum}
   \[
     \overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
   \]
   und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
     Vektorraum in seine Komplexifizierung}
   \[
-    ι : V → V^{ℂ}, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
+    ι : V → V^ℂ, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
   \]
-  Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
-  Teilmenge von $V^{ℂ}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
-  den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
+  Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
+  Teilmenge von $V^ℂ$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
+  \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
   schreiben $\vec{v}^{\:ℂ}$.
 \end{notation}
 
-\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
-  In der Situation von Konstruktion~\ref{kons:9-4-4} sei
-  $B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
-  Vektorraumes $V$ ist.  Rechnen Sie nach, dass die komplexifizierte Basis
-  $B^{ℂ} := \{ \vec{v}^{\:ℂ}_1, …, \vec{v}^{\:ℂ}_n \} ⊂ V^{ℂ}$
-  dann eine Basis von $V^{ℂ}$.  Noch besser: wenn $f : V → V$ linear ist,
-  dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
-  $f^{ℂ} : V^{ℂ} → V^{ℂ}$, so dass für alle Indizes $i$ gilt:
-  $f^{ℂ}(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$.  Rechnen Sie nach, dass
-  $f^{ℂ}$ nicht von der Wahl der Basis $B$ abhängt!  Wir nennen $f^{ℂ}$ die
+\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
+  In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
+  \vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist.  Rechnen Sie
+  nach, dass die komplexifizierte Basis $B^ℂ := \{ \vec{v}^{\:ℂ}_1, …,
+  \vec{v}^{\:ℂ}_n \} ⊂ V^ℂ$ dann eine Basis von $V^ℂ$.  Noch besser: wenn $f : V
+  → V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
+  Abbildung $f^ℂ : V^ℂ → V^ℂ$, sodass für alle Indizes $i$ gilt:
+  $f^ℂ(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$.  Rechnen Sie nach, dass $f^ℂ$
+  nicht von der Wahl der Basis $B$ abhängt!  Wir nennen $f^ℂ$ die
   \emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
-    Abbildung}.
+  Abbildung}.
 \end{konstruktion}
 
 \begin{beobachtung}
   In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
-  Vektor $\vec{v} ∈ V$ die Gleichheit
-  $f(\vec{v})^{ℂ} = f^{ℂ}(\vec{v}^{\:ℂ})$ gilt.
+  Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ℂ = f^ℂ(\vec{v}^{\:ℂ})$ gilt.
 \end{beobachtung}
 
 \begin{beobachtung}
   In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
   Gleichheiten
   \[
-    \Mat^B_B(f) = \Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ}) \quad\text{und}\quad
-    χ_f(t) = χ_{f^{ℂ}}(t)
+    \Mat^B_B(f) = \Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ) \quad\text{und}\quad
+    χ_f(t) = χ_{f^ℂ}(t)
   \]
-  gelten.  Insbesondere ist $\Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ})$ eine reelle
-  Matrix und $χ_{f^{ℂ}}$ ist ein reelles Polynom.  Außerdem ist $f^{ℂ}$ mit
-  der Konjugation verträglich.  Genauer gesagt gilt für jeden Vektor
-  $\vec{v} ∈ V^{ℂ}$ die Gleichung
+  gelten.  Insbesondere ist $\Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ)$ eine reelle Matrix und
+  $χ_{f^ℂ}$ ist ein reelles Polynom.  Außerdem ist $f^ℂ$ mit der Konjugation
+  verträglich.  Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^ℂ$ die
+  Gleichung
   \begin{equation}\label{eq:9-4-7-1}
-    f^{ℂ}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{ℂ}\bigl( \vec{v} \bigr)}.
+    f^ℂ\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^ℂ\bigl( \vec{v} \bigr)}.
   \end{equation}
 \end{beobachtung}
 
@@ -384,40 +379,37 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
 
 Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
 in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
-Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
-wird.  Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
-stabilisiert wird''\index{stabiler Untervektorraum}.  Ich erinnere bei der
-Gelegenheit gleich daran, dass $f$ isomorph ist.  Also folgt aus
-$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
-von $U$ liefert.
+Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird.  Die
+Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
+wird“\index{stabiler Untervektorraum}.  Ich erinnere bei der Gelegenheit gleich
+daran, dass $f$ isomorph ist.  Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
+$f|_U : U → U$ einen Isomorphismus von $U$ liefert.
 
-\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
+\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
   In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal.  Dann gibt es einen
-  Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
-  $f(U) ⊆ U$ ist.
+  Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
 \end{lemma}
 \begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
-  Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr
-  einfach.  Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
-  $U := \langle \vec{v}\, \rangle$, fertig.  Also betrachten wir nur noch den
-  Fall, dass $f$ keinen reellen Eigenwert hat.
+  Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr einfach.
+  Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
+  \vec{v}\, \rangle$, fertig.  Also betrachten wir nur noch den Fall, dass $f$
+  keinen reellen Eigenwert hat.
 
-  Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des
-  charakteristischen Polynoms.  Das charakteristische Polynom von $f$ ist reell,
-  also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$.  Die folgende
-  Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
-  Nullstelle ist,
+  Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des charakteristischen
+  Polynoms.  Das charakteristische Polynom von $f$ ist reell, also von der Form
+  $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$.  Die folgende Rechnung zeigt, dass das
+  komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
   \[
     χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ}
     \overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
       a_i·λⁱ} = \overline{χ_f(λ)} = 0.
   \]
-  Ich betrachte jetzt für den Endomorphismus $f^{ℂ}$ einen Eigenvektor
-  $\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{ℂ}$ zum Eigenwert $λ$.
-  Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
-  $\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{ℂ}$ ein Eigenvektor zum
-  Eigenwert $\overline{λ}$ ist.  Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
-  ist dann $ℂ$-linear unabhängig, ebenso die Menge
+  Ich betrachte jetzt für den Endomorphismus $f^ℂ$ einen Eigenvektor $\vec{v} =
+  (\vec{v}_1, \vec{v}_2) ∈ V^ℂ$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
+  zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
+  -\vec{v}_2) ∈ V^ℂ$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist.  Die
+  Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $ℂ$-linear unabhängig,
+  ebenso die Menge
   \[
     \left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
     = \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
@@ -425,8 +417,8 @@ von $U$ liefert.
   Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
   zwei-dimensionaler reeller Unterraum ist.  Außerdem ist
   \begin{align*}
-    f(\vec{v}_1) & = f^{ℂ}(\vec{v_1}) = f^{ℂ} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
-                 & = \frac{1}{2}·\left( f^{ℂ}(\vec{v}) + f^{ℂ}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
+    f(\vec{v}_1) & = f^ℂ(\vec{v_1}) = f^ℂ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
+                 & = \frac{1}{2}·\left( f^ℂ(\vec{v}) + f^ℂ(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
                  & = a·\vec{v}_1 - b·\vec{v}_2.
   \end{align*}
   Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von