% spell checker language \selectlanguage{german} \chapter{Orthogonale und unitäre Endomorphismen} \section{Orthogonale und unitäre Abbildungen} Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands'' kennen gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg die folgende Situation. \begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1} Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein Endomorphismus. \end{situation} \begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2} In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$ \emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation} beziehungsweise \emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation}, falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt: \[ \bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w} \rangle. \] \end{defn} \begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3} Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das Standardskalarprodukt erhält. Damit ist klar, dass Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands'') ein Spezialfall von Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das vorliegende Skript einigermaßen konsistent! \end{beobachtung} \begin{bsp} Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für ``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands'' Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$ eine Matrix die an Achsen dreht oder spiegelt. \end{bsp} \begin{aufgabe}[Andere Definition in der Literatur] Situation wie in \ref{sit:9-1-1}. In der Literatur finden Sie manchmal eine andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung \[ \bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|. \] gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt. \end{aufgabe} \begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6} In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise unitär. Dann gilt Folgendes. \begin{enumerate} \item Für alle $\vec{v} ∈ V$ gilt $\| f(\vec{v}) \| = \| \vec{v} \|$. \item\label{il:9-1-7-2} Falls $λ$ ein Eigenwert von $f$ ist, so gilt $|λ| = 1$. \item\label{il:9-1-7-3} Für alle $\vec{v}, \vec{w} ∈ V$ gilt: $\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w})$. \item Die Abbildung $f$ ist injektiv. \item Die Abbildung $f$ ist isomorph und $f^{-1}$ ist ebenfalls orthogonal beziehungsweise unitär. \end{enumerate} \end{proposition} \begin{proof} \video{13-3} \end{proof} \begin{rem}[Die Determinante]\label{rem:9-1-7} Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt \ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in Frage. \end{rem} \begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten] Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär'' falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt: \[ \vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}). \] Zeigen Sie anhand eines einfachen Beispiels, das dies \emph{nicht} mit Definition~\ref{def:9-1-2} übereinstimmt. \end{aufgabe} \subsection{Die Gruppenstruktur} Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären Transformation eine Gruppe bilden. \begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9} Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}% \index{unitäre Gruppe!eines unitären Vektorraumes}. \end{defn} \section{Orthogonale und unitäre Matrizen} Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so. \begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1} In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind. \begin{enumerate} \item Die Abbildung $f$ ist orthogonal beziehungsweise unitär. \item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung $Q^t·Q = \Id_{n ⨯ n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$. \end{enumerate} Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht wie immer für die komplex-konjugierte Matrix. \end{aufgabe} Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'', die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu erweitern. \begin{defn}[Orthogonale und unitäre Matrizen] Es sei $n ∈ ℕ$. \begin{enumerate} \item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt \emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} = A^t$ gilt. \item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt \emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} = \overline{A^t}$ gilt. \end{enumerate} \end{defn} \begin{notation}[Orthogonale und unitäre Gruppen] Es sei $n ∈ ℕ$. Dann betrachte folgende Untergruppen von $Gl_n(ℝ)$ beziehungsweise $Gl_n(ℂ)$.% \index{orthogonale Gruppe!Matrizen}\index{spezielle orthogonale Gruppe}\index{unitäre Gruppe!Matrizen} \begin{align*} \mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\ \mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\ \mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\ \mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe} \end{align*} Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$} stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um Gruppen handelt. \end{notation} \begin{proposition}[Einfache Eigenschaften] Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise $A ∈ \Mat(n ⨯ n, ℂ)$. Dann sind folgende Aussagen äquivalent. \begin{enumerate} \item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär. \item\label{il:9-2-4-2} Alle Spaltenvektoren von $A$ haben Norm $1$ und stehen senkrecht aufeinander. \item\label{il:9-2-4-3} Alle Zeilenvektoren von $A$ haben Norm $1$ und stehen senkrecht aufeinander. \end{enumerate} \end{proposition} \begin{proof} Wir diskutieren nur den orthogonalen Fall. Um die Äquivalenz von \ref{il:9-2-4-1} und \ref{il:9-2-4-2} zu zeigen, schreibe die Matrix $A$ durch Spaltenvektoren $\vec{s}_i$. Dann ist \[ A = (\vec{s}_1, \vec{s}_2, …, \vec{s}_n), \quad A^t = \begin{pmatrix} \vec{s}^{\:t}_1\\ \vdots \\ \vec{s}^{\:t}_n \end{pmatrix}, \quad \text{und} \quad A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij} \] Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und \ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und betrachte dann $A · A^t$. \end{proof} \section{Normalformen unitärer Endomorphismen} Wir haben orthogonale und unitäre Endomorphismen und Matrizen diskutiert, haben aber im Moment vermutlich noch eine Idee, wie wir uns die Endomorphismen vorstellen sollen. In diesem Abschnitt diskutiere ich unitäre Endomorphismen; im nächsten Abschnitt diskutieren wir dann den orthogonalen Fall. Wie immer zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist und über den reellen Zahlen komplizierter wird. \begin{satz}[Unitäre Endomorphismen sind diagonalisierbar] In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär. Dann gibt es eine Orthonormalbasis aus Eigenvektoren von $f$. Insbesondere ist der Endomorphismus $f$ diagonalisierbar. \end{satz} \begin{proof} \video{13-4} \end{proof} \sideremark{Vorlesung 14}In Wirklichkeit geht noch mehr. \begin{satz}[Unitäre Endomorphismen sind diagonalisierbar] In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär. Wir bezeichnen die Eigenwerte von $f$ mit $λ_1, …, λ_i$. Dann gibt es eine Zerlegung von $V$ als direkte Summe, \[ V = \bigoplus_i V_{λ_i}, \] wobei die Eigenräume zueinander orthogonal sind. \end{satz} \begin{proof} \video{14-1} \end{proof} \section{Normalformen orthogonaler Matrizen} Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich die orthogonalen $2⨯ 2$-Matrizen beschreibe. Um die Fallunterscheidung zu verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist. \begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7} Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende Gleichung gilt. \[ A = \left\{ \begin{matrix} \begin{pmatrix} \cos α &-\sin α \\ \sin α & \hphantom{-}\cos α \end{pmatrix} & \text{falls } \det A = \hphantom{-}1 \\[5mm] \begin{pmatrix} \cos α &\hphantom{-}\sin α \\ \sin α & -\cos α \end{pmatrix} & \text{falls } \det A = -1 \end{matrix} \right. \] \end{satz} \begin{proof} \video{14-2} \end{proof} \begin{erkl}[Geometrische Bedeutung der Matrizen aus Satz~\ref{satz:9-2-7}] \video{14-3} und \video{14-4} erklären Ihnen, was die Matrizen aus Satz~\ref{satz:9-2-7} geometrisch-anschaulich bedeuten. Damit ist dann auch gleich klargestellt, was die geometrische Bedeutung der Gruppe $\mathcal{SO}_2$ ist, und wie der Unterschied zwischen $\mathcal{O}_2$ und $\mathcal{SO}_2$ verstanden werden kann. Oder vielleicht wissen Sie das schon? \end{erkl} Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt sind. \begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9} In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die folgende Blockgestalt hat \[ \begin{pmatrix} \Id_{a ⨯ a} & \\ & -\Id_{b ⨯ b} \\ & & A_1 \\ & & & \ddots \\ & & & & A_k \\ \end{pmatrix} \] wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{• ⨯ •}$ jeweils jeweils Einheitsmatrizen der entsprechenden Größe sind. \end{satz} \subsection{Vorbereitung zum Beweis von Satz~\ref{satz:9-2-9}: Komplexifizierung} Wir beweisen Satz~\ref{satz:9-2-9} weiter unten. Zuerst kommt eine Vorbereitung. Dabei geht es wieder einmal darum, dass reelle Vektorräume kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus einem reellen Vektorraum einen komplexen Vektorraum macht. \begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4} Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren einen komplexen Vektorraum $V^{ℂ}$ wie folgt: wir betrachten die Menge $V^{ℂ} := V ⨯ V$ und definieren eine Addition durch komponentenweise Addition \[ + : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2) \] und eine skalare Multiplikation durch folgende Abbildung \[ · : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}). \] Rechnen Sie nach, dass dies tatsächlich eine $ℂ$-Vektorraum ist, wen wir als \emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines Vektorraumes} bezeichnen. \end{konstruktion} \begin{notation}[Konjugation und komplexifizierung von Vektoren] In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in komplexifiziertem Vektorraum} \[ \overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr) \] und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines Vektorraum in seine Komplexifizierung} \[ ι : V → V^{ℂ}, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr). \] Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als Teilmenge von $V^{ℂ}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und schreiben $\vec{v}^{\:ℂ}$. \end{notation} \begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6} In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis $B^{ℂ} := \{ \vec{v}^{\:ℂ}_1, …, \vec{v}^{\:ℂ}_n \} ⊂ V^{ℂ}$ dann eine Basis von $V^{ℂ}$. Noch besser: wenn $f : V → V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung $f^{ℂ} : V^{ℂ} → V^{ℂ}$, so dass für alle Indizes $i$ gilt: $f^{ℂ}(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass $f^{ℂ}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{ℂ}$ die \emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer Abbildung}. \end{konstruktion} \begin{beobachtung} In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^{ℂ} = f^{ℂ}(\vec{v}^{\:ℂ})$ gilt. \end{beobachtung} \begin{beobachtung} In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die Gleichheiten \[ \Mat^B_B(f) = \Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ}) \quad\text{und}\quad χ_f(t) = χ_{f^{ℂ}}(t) \] gelten. Insbesondere ist $\Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ})$ eine reelle Matrix und $χ_{f^{ℂ}}$ ist ein reelles Polynom. Außerdem ist $f^{ℂ}$ mit der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^{ℂ}$ die Gleichung \begin{equation}\label{eq:9-4-7-1} f^{ℂ}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{ℂ}\bigl( \vec{v} \bigr)}. \end{equation} \end{beobachtung} \subsection{Beweis von Satz~\ref{satz:9-2-9}} Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es in der Situation des Satzes stets einen ein- oder zwei-dimensionalen Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$ stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus von $U$ liefert. \begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10} In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass $f(U) ⊆ U$ ist. \end{lemma} \begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}] Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$ keinen reellen Eigenwert hat. Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist, \[ χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ} \overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum a_i·λⁱ} = \overline{χ_f(λ)} = 0. \] Ich betrachte jetzt für den Endomorphismus $f^{ℂ}$ einen Eigenvektor $\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{ℂ}$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{ℂ}$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $ℂ$-linear unabhängig, ebenso die Menge \[ \left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} % = \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}. \] Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein zwei-dimensionaler reeller Unterraum ist. Außerdem ist \begin{align*} f(\vec{v}_1) & = f^{ℂ}(\vec{v_1}) = f^{ℂ} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\ & = \frac{1}{2}·\left( f^{ℂ}(\vec{v}) + f^{ℂ}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\ & = a·\vec{v}_1 - b·\vec{v}_2. \end{align*} Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von $\vec{v}_1$ und $\vec{v}_2$ ist, womit Lemma~\ref{lem:9-2-10} bewiesen wäre. \end{proof} \begin{proof}[Beweis von Satz~\ref{satz:9-2-9}] \video{14-5} \end{proof} % !TEX root = LineareAlgebra2