LineareAlgebra2/09-Orthogonal-Unitary.tex
Stefan Kebekus 0fed897098 Cleanup
2025-04-07 13:20:44 +02:00

441 lines
20 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Orthogonale und unitäre Endomorphismen}
\section{Orthogonale und unitäre Abbildungen}
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands'' kennen
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
die folgende Situation.
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
Endomorphismus.
\end{situation}
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
beziehungsweise
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
\[
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
\rangle.
\]
\end{defn}
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
Transformation des $^n$ bezüglich des Euklidischen Abstands das
Standardskalarprodukt erhält. Damit ist klar, dass
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands'') ein Spezialfall von
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
vorliegende Skript einigermaßen konsistent!
\end{beobachtung}
\begin{bsp}
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
``orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands''
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
eine Matrix die an Achsen dreht oder spiegelt.
\end{bsp}
\begin{aufgabe}[Andere Definition in der Literatur]
Situation wie in \ref{sit:9-1-1}. In der Literatur finden Sie manchmal eine
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
\[
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
\]
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe}
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
unitär. Dann gilt Folgendes.
\begin{enumerate}
\item Für alle $\vec{v} ∈ V$ gilt $\| f(\vec{v}) \| = \| \vec{v} \|$.
\item\label{il:9-1-7-2} Falls $λ$ ein Eigenwert von $f$ ist, so gilt
$|λ| = 1$.
\item\label{il:9-1-7-3} Für alle $\vec{v}, \vec{w} ∈ V$ gilt:
$\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w})$.
\item Die Abbildung $f$ ist injektiv.
\item Die Abbildung $f$ ist isomorph und $f^{-1}$ ist ebenfalls orthogonal
beziehungsweise unitär.
\end{enumerate}
\end{proposition}
\begin{proof}
\video{13-3}
\end{proof}
\begin{rem}[Die Determinante]\label{rem:9-1-7}
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
Frage.
\end{rem}
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
\[
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
\]
Zeigen Sie anhand eines einfachen Beispiels, das dies \emph{nicht} mit
Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe}
\subsection{Die Gruppenstruktur}
Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes
$\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
\index{unitäre Gruppe!eines unitären Vektorraumes}.
\end{defn}
\section{Orthogonale und unitäre Matrizen}
Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
$^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
\begin{enumerate}
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
$Q^t·Q = \Id_{n n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n n}$.
\end{enumerate}
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
wie immer für die komplex-konjugierte Matrix.
\end{aufgabe}
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
erweitern.
\begin{defn}[Orthogonale und unitäre Matrizen]
Es sei $n ∈ $.
\begin{enumerate}
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
$A^{-1} = A^t$ gilt.
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
$A^{-1} = \overline{A^t}$ gilt.
\end{enumerate}
\end{defn}
\begin{notation}[Orthogonale und unitäre Gruppen]
Es sei $n ∈ $. Dann betrachte folgende Untergruppen von $Gl_n()$
beziehungsweise $Gl_n()$.%
\index{orthogonale Gruppe!Matrizen}\index{spezielle orthogonale Gruppe}\index{unitäre Gruppe!Matrizen}
\begin{align*}
\mathcal{O}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
\mathcal{U}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
\end{align*}
Der
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
Gruppen handelt.
\end{notation}
\begin{proposition}[Einfache Eigenschaften]
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise
$A ∈ \Mat(n n, )$. Dann sind folgende Aussagen äquivalent.
\begin{enumerate}
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
\item\label{il:9-2-4-2} Alle Spaltenvektoren von $A$ haben Norm $1$ und stehen
senkrecht aufeinander.
\item\label{il:9-2-4-3} Alle Zeilenvektoren von $A$ haben Norm $1$ und stehen
senkrecht aufeinander.
\end{enumerate}
\end{proposition}
\begin{proof}
Wir diskutieren nur den orthogonalen Fall. Um die Äquivalenz von
\ref{il:9-2-4-1} und \ref{il:9-2-4-2} zu zeigen, schreibe die Matrix $A$ durch
Spaltenvektoren $\vec{s}_i$. Dann ist
\[
A = (\vec{s}_1, \vec{s}_2, …, \vec{s}_n), \quad
A^t = \begin{pmatrix} \vec{s}^{\:t}_1\\ \vdots \\ \vec{s}^{\:t}_n \end{pmatrix}, \quad \text{und} \quad
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
\]
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
betrachte dann $A · A^t$.
\end{proof}
\section{Normalformen unitärer Endomorphismen}
Wir haben orthogonale und unitäre Endomorphismen und Matrizen diskutiert, haben
aber im Moment vermutlich noch eine Idee, wie wir uns die Endomorphismen
vorstellen sollen. In diesem Abschnitt diskutiere ich unitäre Endomorphismen;
im nächsten Abschnitt diskutieren wir dann den orthogonalen Fall. Wie immer
zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist und
über den reellen Zahlen komplizierter wird.
\begin{satz}[Unitäre Endomorphismen sind diagonalisierbar]
In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär. Dann gibt es eine
Orthonormalbasis aus Eigenvektoren von $f$. Insbesondere ist der
Endomorphismus $f$ diagonalisierbar.
\end{satz}
\begin{proof}
\video{13-4}
\end{proof}
\sideremark{Vorlesung 14}In Wirklichkeit geht noch mehr.
\begin{satz}[Unitäre Endomorphismen sind diagonalisierbar]
In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär. Wir bezeichnen die
Eigenwerte von $f$ mit $λ_1, …, λ_i$. Dann gibt es eine Zerlegung von $V$ als
direkte Summe,
\[
V = \bigoplus_i V_{λ_i},
\]
wobei die Eigenräume zueinander orthogonal sind.
\end{satz}
\begin{proof}
\video{14-1}
\end{proof}
\section{Normalformen orthogonaler Matrizen}
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
die orthogonalen $2 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, so dass folgende
Gleichung gilt.
\[
A =
\left\{
\begin{matrix}
\begin{pmatrix} \cos α &-\sin α \\ \sin α & \hphantom{-}\cos α \end{pmatrix} & \text{falls } \det A = \hphantom{-}1 \\[5mm]
\begin{pmatrix} \cos α &\hphantom{-}\sin α \\ \sin α & -\cos α \end{pmatrix} & \text{falls } \det A = -1
\end{matrix}
\right.
\]
\end{satz}
\begin{proof}
\video{14-2}
\end{proof}
\begin{erkl}[Geometrische Bedeutung der Matrizen aus Satz~\ref{satz:9-2-7}]
\video{14-3} und \video{14-4} erklären Ihnen, was die Matrizen aus
Satz~\ref{satz:9-2-7} geometrisch-anschaulich bedeuten. Damit ist dann auch
gleich klargestellt, was die geometrische Bedeutung der Gruppe
$\mathcal{SO}_2$ ist, und wie der Unterschied zwischen $\mathcal{O}_2$ und
$\mathcal{SO}_2$ verstanden werden kann. Oder vielleicht wissen Sie das
schon?
\end{erkl}
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
sind.
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
folgende Blockgestalt hat
\[
\begin{pmatrix}
\Id_{a a} & \\
& -\Id_{b b} \\
& & A_1 \\
& & & \ddots \\
& & & & A_k \\
\end{pmatrix}
\]
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
$\Id_{}$ jeweils jeweils Einheitsmatrizen der
entsprechenden Größe sind.
\end{satz}
\subsection{Vorbereitung zum Beweis von Satz~\ref{satz:9-2-9}: Komplexifizierung}
Wir beweisen Satz~\ref{satz:9-2-9} weiter unten. Zuerst kommt eine
Vorbereitung. Dabei geht es wieder einmal darum, dass reelle Vektorräume
kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
einen komplexen Vektorraum $V^{}$ wie folgt: wir betrachten die Menge
$V^{} := V V$ und definieren eine Addition durch komponentenweise
Addition
\[
+ : (V V) (V V) → V V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr)(\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
\]
und eine skalare Multiplikation durch folgende Abbildung
\[
· : (V V) → V V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr)(\vec{v}-\vec{w},b·\vec{v}+\vec{w}).
\]
Rechnen Sie nach, dass dies tatsächlich eine $$-Vektorraum ist, wen wir als
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
Vektorraumes} bezeichnen.
\end{konstruktion}
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+\vec{w}$, dann
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
komplexifiziertem Vektorraum}
\[
\overline{} : V V → V V, \quad \bigl(\vec{v}, \vec{w}\bigr)\bigl(\vec{v}, -\vec{w}\bigr)
\]
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
Vektorraum in seine Komplexifizierung}
\[
ι : V → V^{\bC}, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
\]
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^{}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
schreiben $\vec{v}^{\:}$.
\end{notation}
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
$B^{} := \{ \vec{v}^{\:}_1, …, \vec{v}^{\:}_n \} ⊂ V^{}$
dann eine Basis von $V^{}$. Noch besser: wenn $f : V → V$ linear ist,
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
$f^{} : V^{} → V^{}$, so dass für alle Indizes $i$ gilt:
$f^{}(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass
$f^{}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{}$ die
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
Abbildung}.
\end{konstruktion}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
Vektor $\vec{v} ∈ V$ die Gleichheit
$f(\vec{v})^{} = f^{}(\vec{v}^{\:})$ gilt.
\end{beobachtung}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
Gleichheiten
\[
\Mat^B_B(f) = \Mat^{B^{}}_{B^{\:}}(f^{}) \quad\text{und}\quad
χ_f(t) = χ_{f^{}}(t)
\]
gelten. Insbesondere ist $\Mat^{B^{}}_{B^{\:}}(f^{})$ eine reelle
Matrix und $χ_{f^{}}$ ist ein reelles Polynom. Außerdem ist $f^{}$ mit
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
$\vec{v} ∈ V^{}$ die Gleichung
\begin{equation}\label{eq:9-4-7-1}
f^{}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{}\bigl( \vec{v} \bigr)}.
\end{equation}
\end{beobachtung}
\subsection{Beweis von Satz~\ref{satz:9-2-9}}
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
von $U$ liefert.
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
$f(U) ⊆ U$ ist.
\end{lemma}
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
Fall, dass $f$ keinen reellen Eigenwert hat.
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
Nullstelle ist,
\[
χ_f(\overline{λ}) = \sum a_\overline{λ}= \sum a_\overline{λⁱ}
\overset{a_i ∈ }{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
\]
Ich betrachte jetzt für den Endomorphismus $f^{}$ einen Eigenvektor
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{}$ zum Eigenwert $λ$.
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{}$ ein Eigenvektor zum
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
ist dann $$-linear unabhängig, ebenso die Menge
\[
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
\]
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
\begin{align*}
f(\vec{v}_1) & = f^{}(\vec{v_1}) = f^{} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^{}(\vec{v}) + f^{}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
& = a·\vec{v}_1 - b·\vec{v}_2.
\end{align*}
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von
$\vec{v}_1$ und $\vec{v}_2$ ist, womit Lemma~\ref{lem:9-2-10} bewiesen wäre.
\end{proof}
\begin{proof}[Beweis von Satz~\ref{satz:9-2-9}]
\video{14-5}
\end{proof}
% !TEX root = LineareAlgebra2