% spell checker language
\selectlanguage{german}

\chapter{Orthogonale und unitäre Endomorphismen}

\section{Orthogonale und unitäre Abbildungen}

Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands'' kennen
gelernt.  Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
Begriff ``orthogonale Transformation'' verallgemeinern.  Wir betrachten durchweg
die folgende Situation.

\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
  Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
  Euklidischer oder unitärer Vektorraum.  Weiter sei $f: V → V$ ein
  Endomorphismus.
\end{situation}

\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
  In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
  \emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
  beziehungsweise
  \emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
  falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
  \[
    \bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
    \rangle.
  \]
\end{defn}

\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
  Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
  Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das
  Standardskalarprodukt erhält.  Damit ist klar, dass
  Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $ℝ^n$
  bezüglich des Euklidischen Abstands'') ein Spezialfall von
  Definition~\ref{def:9-1-2} ist.  Wenigstens an dieser Stelle ist das
  vorliegende Skript einigermaßen konsistent!
\end{beobachtung}

\begin{bsp}
  Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
  ``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands''
  Beispiele für orthogonale Transformationen liefern.  Konkret: $V = ℝ²$ und $f$
  eine Matrix die an Achsen dreht oder spiegelt.
\end{bsp}

\begin{aufgabe}[Andere Definition in der Literatur]
  Situation wie in \ref{sit:9-1-1}.  In der Literatur finden Sie manchmal eine
  andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
  unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
  \[
    \bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
  \]
  gilt.  Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
  zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe}

\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
  In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
  unitär.  Dann gilt Folgendes.
  \begin{enumerate}
  \item Für alle $\vec{v} ∈ V$ gilt $\| f(\vec{v}) \| = \| \vec{v} \|$.
    
  \item\label{il:9-1-7-2} Falls $λ$ ein Eigenwert von $f$ ist, so gilt
    $|λ| = 1$.
    
  \item\label{il:9-1-7-3} Für alle $\vec{v}, \vec{w} ∈ V$ gilt:
    $\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w})$.
    
  \item Die Abbildung $f$ ist injektiv.
    
  \item Die Abbildung $f$ ist isomorph und $f^{-1}$ ist ebenfalls orthogonal
    beziehungsweise unitär.
  \end{enumerate}
\end{proposition}
\begin{proof}
  \video{13-3}
\end{proof}

\begin{rem}[Die Determinante]\label{rem:9-1-7}
  Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
  Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!).  In der
  Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
  \ref{il:9-1-7-2}, dass $|\det f|=1$ ist.  Im Fall einer orthogonalen Abbildung
  ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
  Frage.
\end{rem}

\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
  Situation wie in \ref{sit:9-1-1}.  Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
  folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
  falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
  \[
    \vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
  \]
  Zeigen Sie anhand eines einfachen Beispiels, das dies \emph{nicht} mit
  Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe}


\subsection{Die Gruppenstruktur}

Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
Transformation eine Gruppe bilden.

\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
  Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
  Euklidischer oder unitärer Vektorraum.  Dann bilden die orthogonalen
  beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$.  Wir
  nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes
    $\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
    Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
    unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
  \index{unitäre Gruppe!eines unitären Vektorraumes}.
\end{defn}


\section{Orthogonale und unitäre Matrizen}

Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
$ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
beschrieben.  Das geht in unserem verallgemeinerten Fall ganz genau so.

\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
  In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
  angeordnete Orthonormalbasis von $V$.  Beweisen Sie in völliger Analogie zu
  Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
  \begin{enumerate}
  \item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.

  \item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
    $Q^t·Q = \Id_{n ⨯ n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
  \end{enumerate}
  Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix.  Der Querstrich steht
  wie immer für die komplex-konjugierte Matrix.
\end{aufgabe}

Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
erweitern.

\begin{defn}[Orthogonale und unitäre Matrizen]
  Es sei $n ∈ ℕ$.
  
  \begin{enumerate}
  \item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt
    \emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
    $A^{-1} = A^t$ gilt.
    
  \item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt
    \emph{unitär}\index{unitär!Matrix}, falls die Gleichung
    $A^{-1} = \overline{A^t}$ gilt.
  \end{enumerate}
\end{defn}

\begin{notation}[Orthogonale und unitäre Gruppen]
  Es sei $n ∈ ℕ$.  Dann betrachte folgende Untergruppen von $Gl_n(ℝ)$
  beziehungsweise $Gl_n(ℂ)$.%
  \index{orthogonale Gruppe!Matrizen}\index{spezielle orthogonale Gruppe}\index{unitäre Gruppe!Matrizen}
  \begin{align*}
    \mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
    \mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
    \mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
    \mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
  \end{align*}
  Der
  Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
  stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
  Gruppen handelt.
\end{notation}

\begin{proposition}[Einfache Eigenschaften]
  Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise
  $A ∈ \Mat(n ⨯ n, ℂ)$.  Dann sind folgende Aussagen äquivalent.
  \begin{enumerate}
  \item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
    
  \item\label{il:9-2-4-2} Alle Spaltenvektoren von $A$ haben Norm $1$ und stehen
    senkrecht aufeinander.
    
  \item\label{il:9-2-4-3} Alle Zeilenvektoren von $A$ haben Norm $1$ und stehen
    senkrecht aufeinander.
  \end{enumerate}
\end{proposition}
\begin{proof}
  Wir diskutieren nur den orthogonalen Fall.  Um die Äquivalenz von
  \ref{il:9-2-4-1} und \ref{il:9-2-4-2} zu zeigen, schreibe die Matrix $A$ durch
  Spaltenvektoren $\vec{s}_i$.  Dann ist
  \[
    A = (\vec{s}_1, \vec{s}_2, …, \vec{s}_n), \quad
    A^t = \begin{pmatrix} \vec{s}^{\:t}_1\\ \vdots \\ \vec{s}^{\:t}_n \end{pmatrix}, \quad \text{und} \quad
    A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
  \]
  Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
  Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt.  Das gilt in unserem Fall aber
  genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
  gerade Bedingung \ref{il:9-2-4-2}.  Die Äquivalenz von \ref{il:9-2-4-1} und
  \ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
  betrachte dann $A · A^t$.
\end{proof}


\section{Normalformen unitärer Endomorphismen}

Wir haben orthogonale und unitäre Endomorphismen und Matrizen diskutiert, haben
aber im Moment vermutlich noch eine Idee, wie wir uns die Endomorphismen
vorstellen sollen.  In diesem Abschnitt diskutiere ich unitäre Endomorphismen;
im nächsten Abschnitt diskutieren wir dann den orthogonalen Fall.  Wie immer
zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist und
über den reellen Zahlen komplizierter wird.

\begin{satz}[Unitäre Endomorphismen sind diagonalisierbar]
  In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär.  Dann gibt es eine
  Orthonormalbasis aus Eigenvektoren von $f$.  Insbesondere ist der
  Endomorphismus $f$ diagonalisierbar.
\end{satz}
\begin{proof}
  \video{13-4}
\end{proof}

\sideremark{Vorlesung 14}In Wirklichkeit geht noch mehr.

\begin{satz}[Unitäre Endomorphismen sind diagonalisierbar]
  In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär.  Wir bezeichnen die
  Eigenwerte von $f$ mit $λ_1, …, λ_i$.  Dann gibt es eine Zerlegung von $V$ als
  direkte Summe,
  \[
    V = \bigoplus_i V_{λ_i},
  \]
  wobei die Eigenräume zueinander orthogonal sind.
\end{satz}
\begin{proof}
  \video{14-1}
\end{proof}


\section{Normalformen orthogonaler Matrizen}

Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
dementsprechend auch länger als der Vorhergehende.  Ich fange damit an, dass ich
die orthogonalen $2⨯ 2$-Matrizen beschreibe.  Um die Fallunterscheidung zu
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.

\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
  Sei $A ∈ \mathcal{O}_2$.  Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende
  Gleichung gilt.
  \[
    A =
    \left\{
      \begin{matrix}
        \begin{pmatrix} \cos α &-\sin α \\ \sin α & \hphantom{-}\cos α \end{pmatrix} & \text{falls } \det A = \hphantom{-}1 \\[5mm]
        \begin{pmatrix} \cos α &\hphantom{-}\sin α \\ \sin α & -\cos α \end{pmatrix} & \text{falls } \det A = -1
      \end{matrix}
    \right.
  \]
\end{satz}
\begin{proof}
  \video{14-2}
\end{proof}

\begin{erkl}[Geometrische Bedeutung der Matrizen aus Satz~\ref{satz:9-2-7}]
  \video{14-3} und \video{14-4} erklären Ihnen, was die Matrizen aus
  Satz~\ref{satz:9-2-7} geometrisch-anschaulich bedeuten.  Damit ist dann auch
  gleich klargestellt, was die geometrische Bedeutung der Gruppe
  $\mathcal{SO}_2$ ist, und wie der Unterschied zwischen $\mathcal{O}_2$ und
  $\mathcal{SO}_2$ verstanden werden kann.  Oder vielleicht wissen Sie das
  schon?
\end{erkl}

Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
soll, für beliebigen Index $n$.  Der folgende Satz zeigt, wie die orthogonalen
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
sind.

\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
  In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal.  Dann gibt es eine
  angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
  folgende Blockgestalt hat
  \[
    \begin{pmatrix}
      \Id_{a ⨯ a} & \\
      & -\Id_{b ⨯ b} \\
      & & A_1 \\
      & & & \ddots \\
      & & & & A_k \\
    \end{pmatrix}
  \]
  wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
  $\Id_{• ⨯ •}$ jeweils jeweils Einheitsmatrizen der
  entsprechenden Größe sind.
\end{satz}


\subsection{Vorbereitung zum Beweis von Satz~\ref{satz:9-2-9}: Komplexifizierung}

Wir beweisen Satz~\ref{satz:9-2-9} weiter unten.  Zuerst kommt eine
Vorbereitung.  Dabei geht es wieder einmal darum, dass reelle Vektorräume
kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
Vektorräume reden dürften.  Deshalb diskutiere ich ein Verfahren, wie man aus
einem reellen Vektorraum einen komplexen Vektorraum macht.

\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
  Es sei $V$ ein endlich-dimensionaler reeller Vektorraum.  Wir konstruieren
  einen komplexen Vektorraum $V^{ℂ}$ wie folgt: wir betrachten die Menge
  $V^{ℂ} := V ⨯ V$ und definieren eine Addition durch komponentenweise
  Addition
  \[
    + : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
  \]
  und eine skalare Multiplikation durch folgende Abbildung
  \[
    · : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
  \]
  Rechnen Sie nach, dass dies tatsächlich eine $ℂ$-Vektorraum ist, wen wir als
  \emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
    Vektorraumes} bezeichnen.
\end{konstruktion}

\begin{notation}[Konjugation und komplexifizierung von Vektoren]
  In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
  statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann
  wird die Formel für die skalare Multiplikation gleich viel verständlicher.
  Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
    komplexifiziertem Vektorraum}
  \[
    \overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
  \]
  und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
    Vektorraum in seine Komplexifizierung}
  \[
    ι : V → V^{\bC}, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
  \]
  Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
  Teilmenge von $V^{ℂ}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
  den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
  schreiben $\vec{v}^{\:ℂ}$.
\end{notation}

\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
  In der Situation von Konstruktion~\ref{kons:9-4-4} sei
  $B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
  Vektorraumes $V$ ist.  Rechnen Sie nach, dass die komplexifizierte Basis
  $B^{ℂ} := \{ \vec{v}^{\:ℂ}_1, …, \vec{v}^{\:ℂ}_n \} ⊂ V^{ℂ}$
  dann eine Basis von $V^{ℂ}$.  Noch besser: wenn $f : V → V$ linear ist,
  dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
  $f^{ℂ} : V^{ℂ} → V^{ℂ}$, so dass für alle Indizes $i$ gilt:
  $f^{ℂ}(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$.  Rechnen Sie nach, dass
  $f^{ℂ}$ nicht von der Wahl der Basis $B$ abhängt!  Wir nennen $f^{ℂ}$ die
  \emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
    Abbildung}.
\end{konstruktion}

\begin{beobachtung}
  In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
  Vektor $\vec{v} ∈ V$ die Gleichheit
  $f(\vec{v})^{ℂ} = f^{ℂ}(\vec{v}^{\:ℂ})$ gilt.
\end{beobachtung}

\begin{beobachtung}
  In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
  Gleichheiten
  \[
    \Mat^B_B(f) = \Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ}) \quad\text{und}\quad
    χ_f(t) = χ_{f^{ℂ}}(t)
  \]
  gelten.  Insbesondere ist $\Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ})$ eine reelle
  Matrix und $χ_{f^{ℂ}}$ ist ein reelles Polynom.  Außerdem ist $f^{ℂ}$ mit
  der Konjugation verträglich.  Genauer gesagt gilt für jeden Vektor
  $\vec{v} ∈ V^{ℂ}$ die Gleichung
  \begin{equation}\label{eq:9-4-7-1}
    f^{ℂ}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{ℂ}\bigl( \vec{v} \bigr)}.
  \end{equation}
\end{beobachtung}


\subsection{Beweis von Satz~\ref{satz:9-2-9}}

Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
wird.  Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
stabilisiert wird''\index{stabiler Untervektorraum}.  Ich erinnere bei der
Gelegenheit gleich daran, dass $f$ isomorph ist.  Also folgt aus
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
von $U$ liefert.

\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
  In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal.  Dann gibt es einen
  Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
  $f(U) ⊆ U$ ist.
\end{lemma}
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
  Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr
  einfach.  Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
  $U := \langle \vec{v}\, \rangle$, fertig.  Also betrachten wir nur noch den
  Fall, dass $f$ keinen reellen Eigenwert hat.

  Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des
  charakteristischen Polynoms.  Das charakteristische Polynom von $f$ ist reell,
  also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$.  Die folgende
  Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
  Nullstelle ist,
  \[
    χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ}
    \overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
      a_i·λⁱ} = \overline{χ_f(λ)} = 0.
  \]
  Ich betrachte jetzt für den Endomorphismus $f^{ℂ}$ einen Eigenvektor
  $\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{ℂ}$ zum Eigenwert $λ$.
  Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
  $\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{ℂ}$ ein Eigenvektor zum
  Eigenwert $\overline{λ}$ ist.  Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
  ist dann $ℂ$-linear unabhängig, ebenso die Menge
  \[
    \left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
    = \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
  \]
  Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
  zwei-dimensionaler reeller Unterraum ist.  Außerdem ist
  \begin{align*}
    f(\vec{v}_1) & = f^{ℂ}(\vec{v_1}) = f^{ℂ} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
                 & = \frac{1}{2}·\left( f^{ℂ}(\vec{v}) + f^{ℂ}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
                 & = a·\vec{v}_1 - b·\vec{v}_2.
  \end{align*}
  Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von
  $\vec{v}_1$ und $\vec{v}_2$ ist, womit Lemma~\ref{lem:9-2-10} bewiesen wäre.
\end{proof}

\begin{proof}[Beweis von Satz~\ref{satz:9-2-9}]
  \video{14-5}
\end{proof}

% !TEX root = LineareAlgebra2