441 lines
20 KiB
TeX
441 lines
20 KiB
TeX
% spell checker language
|
||
\selectlanguage{german}
|
||
|
||
\chapter{Orthogonale und unitäre Endomorphismen}
|
||
|
||
\section{Orthogonale und unitäre Abbildungen}
|
||
|
||
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
|
||
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands'' kennen
|
||
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
|
||
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
|
||
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
|
||
die folgende Situation.
|
||
|
||
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
|
||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||
Euklidischer oder unitärer Vektorraum. Weiter sei $f: V → V$ ein
|
||
Endomorphismus.
|
||
\end{situation}
|
||
|
||
\begin{defn}[Orthogonale und unitäre Endomorphismen]\label{def:9-1-2}
|
||
In Situation~\ref{sit:9-1-1} nenne die Abbildung $f$
|
||
\emph{orthogonal}\index{Transformation!orthogonal}\index{orthogonal!Transformation}
|
||
beziehungsweise
|
||
\emph{unitär}\index{Transformation!unitär}\index{unitär!Transformation},
|
||
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die folgende Gleichung gilt:
|
||
\[
|
||
\bigl\langle f(\vec{v}), f(\vec{w}) \bigr\rangle = \langle \vec{v}, \vec{w}
|
||
\rangle.
|
||
\]
|
||
\end{defn}
|
||
|
||
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
|
||
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
|
||
Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das
|
||
Standardskalarprodukt erhält. Damit ist klar, dass
|
||
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $ℝ^n$
|
||
bezüglich des Euklidischen Abstands'') ein Spezialfall von
|
||
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
|
||
vorliegende Skript einigermaßen konsistent!
|
||
\end{beobachtung}
|
||
|
||
\begin{bsp}
|
||
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
|
||
``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands''
|
||
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
|
||
eine Matrix die an Achsen dreht oder spiegelt.
|
||
\end{bsp}
|
||
|
||
\begin{aufgabe}[Andere Definition in der Literatur]
|
||
Situation wie in \ref{sit:9-1-1}. In der Literatur finden Sie manchmal eine
|
||
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
|
||
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
|
||
\[
|
||
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
|
||
\]
|
||
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
|
||
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
|
||
\end{aufgabe}
|
||
|
||
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
|
||
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
|
||
unitär. Dann gilt Folgendes.
|
||
\begin{enumerate}
|
||
\item Für alle $\vec{v} ∈ V$ gilt $\| f(\vec{v}) \| = \| \vec{v} \|$.
|
||
|
||
\item\label{il:9-1-7-2} Falls $λ$ ein Eigenwert von $f$ ist, so gilt
|
||
$|λ| = 1$.
|
||
|
||
\item\label{il:9-1-7-3} Für alle $\vec{v}, \vec{w} ∈ V$ gilt:
|
||
$\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w})$.
|
||
|
||
\item Die Abbildung $f$ ist injektiv.
|
||
|
||
\item Die Abbildung $f$ ist isomorph und $f^{-1}$ ist ebenfalls orthogonal
|
||
beziehungsweise unitär.
|
||
\end{enumerate}
|
||
\end{proposition}
|
||
\begin{proof}
|
||
\video{13-3}
|
||
\end{proof}
|
||
|
||
\begin{rem}[Die Determinante]\label{rem:9-1-7}
|
||
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
|
||
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
|
||
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
|
||
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
|
||
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
|
||
Frage.
|
||
\end{rem}
|
||
|
||
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
|
||
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
|
||
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
|
||
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
|
||
\[
|
||
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
|
||
\]
|
||
Zeigen Sie anhand eines einfachen Beispiels, das dies \emph{nicht} mit
|
||
Definition~\ref{def:9-1-2} übereinstimmt.
|
||
\end{aufgabe}
|
||
|
||
|
||
\subsection{Die Gruppenstruktur}
|
||
|
||
Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
|
||
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
|
||
Transformation eine Gruppe bilden.
|
||
|
||
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
|
||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
|
||
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
|
||
nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes
|
||
$\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines
|
||
Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des
|
||
unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}%
|
||
\index{unitäre Gruppe!eines unitären Vektorraumes}.
|
||
\end{defn}
|
||
|
||
|
||
\section{Orthogonale und unitäre Matrizen}
|
||
|
||
Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
|
||
$ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
|
||
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
||
|
||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
|
||
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
|
||
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
|
||
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
||
\begin{enumerate}
|
||
\item Die Abbildung $f$ ist orthogonal beziehungsweise unitär.
|
||
|
||
\item Die Matrix $Q := \Mat^B_B(f)$ erfüllt die Gleichung
|
||
$Q^t·Q = \Id_{n ⨯ n}$ beziehungsweise $\overline{Q^t}·Q = \Id_{n ⨯ n}$.
|
||
\end{enumerate}
|
||
Dabei bezeichnet $Q^t$ die zu $Q$ transponierte Matrix. Der Querstrich steht
|
||
wie immer für die komplex-konjugierte Matrix.
|
||
\end{aufgabe}
|
||
|
||
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
|
||
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
|
||
erweitern.
|
||
|
||
\begin{defn}[Orthogonale und unitäre Matrizen]
|
||
Es sei $n ∈ ℕ$.
|
||
|
||
\begin{enumerate}
|
||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt
|
||
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
|
||
$A^{-1} = A^t$ gilt.
|
||
|
||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt
|
||
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
|
||
$A^{-1} = \overline{A^t}$ gilt.
|
||
\end{enumerate}
|
||
\end{defn}
|
||
|
||
\begin{notation}[Orthogonale und unitäre Gruppen]
|
||
Es sei $n ∈ ℕ$. Dann betrachte folgende Untergruppen von $Gl_n(ℝ)$
|
||
beziehungsweise $Gl_n(ℂ)$.%
|
||
\index{orthogonale Gruppe!Matrizen}\index{spezielle orthogonale Gruppe}\index{unitäre Gruppe!Matrizen}
|
||
\begin{align*}
|
||
\mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
|
||
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
|
||
\mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
|
||
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
|
||
\end{align*}
|
||
Der
|
||
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
|
||
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
|
||
Gruppen handelt.
|
||
\end{notation}
|
||
|
||
\begin{proposition}[Einfache Eigenschaften]
|
||
Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise
|
||
$A ∈ \Mat(n ⨯ n, ℂ)$. Dann sind folgende Aussagen äquivalent.
|
||
\begin{enumerate}
|
||
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
|
||
|
||
\item\label{il:9-2-4-2} Alle Spaltenvektoren von $A$ haben Norm $1$ und stehen
|
||
senkrecht aufeinander.
|
||
|
||
\item\label{il:9-2-4-3} Alle Zeilenvektoren von $A$ haben Norm $1$ und stehen
|
||
senkrecht aufeinander.
|
||
\end{enumerate}
|
||
\end{proposition}
|
||
\begin{proof}
|
||
Wir diskutieren nur den orthogonalen Fall. Um die Äquivalenz von
|
||
\ref{il:9-2-4-1} und \ref{il:9-2-4-2} zu zeigen, schreibe die Matrix $A$ durch
|
||
Spaltenvektoren $\vec{s}_i$. Dann ist
|
||
\[
|
||
A = (\vec{s}_1, \vec{s}_2, …, \vec{s}_n), \quad
|
||
A^t = \begin{pmatrix} \vec{s}^{\:t}_1\\ \vdots \\ \vec{s}^{\:t}_n \end{pmatrix}, \quad \text{und} \quad
|
||
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
|
||
\]
|
||
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
|
||
Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber
|
||
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
|
||
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
|
||
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
|
||
betrachte dann $A · A^t$.
|
||
\end{proof}
|
||
|
||
|
||
\section{Normalformen unitärer Endomorphismen}
|
||
|
||
Wir haben orthogonale und unitäre Endomorphismen und Matrizen diskutiert, haben
|
||
aber im Moment vermutlich noch eine Idee, wie wir uns die Endomorphismen
|
||
vorstellen sollen. In diesem Abschnitt diskutiere ich unitäre Endomorphismen;
|
||
im nächsten Abschnitt diskutieren wir dann den orthogonalen Fall. Wie immer
|
||
zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist und
|
||
über den reellen Zahlen komplizierter wird.
|
||
|
||
\begin{satz}[Unitäre Endomorphismen sind diagonalisierbar]
|
||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär. Dann gibt es eine
|
||
Orthonormalbasis aus Eigenvektoren von $f$. Insbesondere ist der
|
||
Endomorphismus $f$ diagonalisierbar.
|
||
\end{satz}
|
||
\begin{proof}
|
||
\video{13-4}
|
||
\end{proof}
|
||
|
||
\sideremark{Vorlesung 14}In Wirklichkeit geht noch mehr.
|
||
|
||
\begin{satz}[Unitäre Endomorphismen sind diagonalisierbar]
|
||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ unitär. Wir bezeichnen die
|
||
Eigenwerte von $f$ mit $λ_1, …, λ_i$. Dann gibt es eine Zerlegung von $V$ als
|
||
direkte Summe,
|
||
\[
|
||
V = \bigoplus_i V_{λ_i},
|
||
\]
|
||
wobei die Eigenräume zueinander orthogonal sind.
|
||
\end{satz}
|
||
\begin{proof}
|
||
\video{14-1}
|
||
\end{proof}
|
||
|
||
|
||
\section{Normalformen orthogonaler Matrizen}
|
||
|
||
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
|
||
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
|
||
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
|
||
die orthogonalen $2⨯ 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
|
||
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
|
||
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
||
|
||
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
|
||
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende
|
||
Gleichung gilt.
|
||
\[
|
||
A =
|
||
\left\{
|
||
\begin{matrix}
|
||
\begin{pmatrix} \cos α &-\sin α \\ \sin α & \hphantom{-}\cos α \end{pmatrix} & \text{falls } \det A = \hphantom{-}1 \\[5mm]
|
||
\begin{pmatrix} \cos α &\hphantom{-}\sin α \\ \sin α & -\cos α \end{pmatrix} & \text{falls } \det A = -1
|
||
\end{matrix}
|
||
\right.
|
||
\]
|
||
\end{satz}
|
||
\begin{proof}
|
||
\video{14-2}
|
||
\end{proof}
|
||
|
||
\begin{erkl}[Geometrische Bedeutung der Matrizen aus Satz~\ref{satz:9-2-7}]
|
||
\video{14-3} und \video{14-4} erklären Ihnen, was die Matrizen aus
|
||
Satz~\ref{satz:9-2-7} geometrisch-anschaulich bedeuten. Damit ist dann auch
|
||
gleich klargestellt, was die geometrische Bedeutung der Gruppe
|
||
$\mathcal{SO}_2$ ist, und wie der Unterschied zwischen $\mathcal{O}_2$ und
|
||
$\mathcal{SO}_2$ verstanden werden kann. Oder vielleicht wissen Sie das
|
||
schon?
|
||
\end{erkl}
|
||
|
||
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
|
||
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
|
||
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
|
||
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
|
||
sind.
|
||
|
||
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
|
||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
|
||
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
|
||
folgende Blockgestalt hat
|
||
\[
|
||
\begin{pmatrix}
|
||
\Id_{a ⨯ a} & \\
|
||
& -\Id_{b ⨯ b} \\
|
||
& & A_1 \\
|
||
& & & \ddots \\
|
||
& & & & A_k \\
|
||
\end{pmatrix}
|
||
\]
|
||
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
|
||
$\Id_{• ⨯ •}$ jeweils jeweils Einheitsmatrizen der
|
||
entsprechenden Größe sind.
|
||
\end{satz}
|
||
|
||
|
||
\subsection{Vorbereitung zum Beweis von Satz~\ref{satz:9-2-9}: Komplexifizierung}
|
||
|
||
Wir beweisen Satz~\ref{satz:9-2-9} weiter unten. Zuerst kommt eine
|
||
Vorbereitung. Dabei geht es wieder einmal darum, dass reelle Vektorräume
|
||
kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
|
||
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
|
||
einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||
|
||
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
|
||
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
|
||
einen komplexen Vektorraum $V^{ℂ}$ wie folgt: wir betrachten die Menge
|
||
$V^{ℂ} := V ⨯ V$ und definieren eine Addition durch komponentenweise
|
||
Addition
|
||
\[
|
||
+ : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
|
||
\]
|
||
und eine skalare Multiplikation durch folgende Abbildung
|
||
\[
|
||
· : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
|
||
\]
|
||
Rechnen Sie nach, dass dies tatsächlich eine $ℂ$-Vektorraum ist, wen wir als
|
||
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
|
||
Vektorraumes} bezeichnen.
|
||
\end{konstruktion}
|
||
|
||
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
|
||
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
|
||
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann
|
||
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
|
||
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
|
||
komplexifiziertem Vektorraum}
|
||
\[
|
||
\overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
|
||
\]
|
||
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
|
||
Vektorraum in seine Komplexifizierung}
|
||
\[
|
||
ι : V → V^{ℂ}, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
|
||
\]
|
||
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
|
||
Teilmenge von $V^{ℂ}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
|
||
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
|
||
schreiben $\vec{v}^{\:ℂ}$.
|
||
\end{notation}
|
||
|
||
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
|
||
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
|
||
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
|
||
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
|
||
$B^{ℂ} := \{ \vec{v}^{\:ℂ}_1, …, \vec{v}^{\:ℂ}_n \} ⊂ V^{ℂ}$
|
||
dann eine Basis von $V^{ℂ}$. Noch besser: wenn $f : V → V$ linear ist,
|
||
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
|
||
$f^{ℂ} : V^{ℂ} → V^{ℂ}$, so dass für alle Indizes $i$ gilt:
|
||
$f^{ℂ}(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass
|
||
$f^{ℂ}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{ℂ}$ die
|
||
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
|
||
Abbildung}.
|
||
\end{konstruktion}
|
||
|
||
\begin{beobachtung}
|
||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
|
||
Vektor $\vec{v} ∈ V$ die Gleichheit
|
||
$f(\vec{v})^{ℂ} = f^{ℂ}(\vec{v}^{\:ℂ})$ gilt.
|
||
\end{beobachtung}
|
||
|
||
\begin{beobachtung}
|
||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
|
||
Gleichheiten
|
||
\[
|
||
\Mat^B_B(f) = \Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ}) \quad\text{und}\quad
|
||
χ_f(t) = χ_{f^{ℂ}}(t)
|
||
\]
|
||
gelten. Insbesondere ist $\Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ})$ eine reelle
|
||
Matrix und $χ_{f^{ℂ}}$ ist ein reelles Polynom. Außerdem ist $f^{ℂ}$ mit
|
||
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
|
||
$\vec{v} ∈ V^{ℂ}$ die Gleichung
|
||
\begin{equation}\label{eq:9-4-7-1}
|
||
f^{ℂ}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{ℂ}\bigl( \vec{v} \bigr)}.
|
||
\end{equation}
|
||
\end{beobachtung}
|
||
|
||
|
||
\subsection{Beweis von Satz~\ref{satz:9-2-9}}
|
||
|
||
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
|
||
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
|
||
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
|
||
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
|
||
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
|
||
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
|
||
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
|
||
von $U$ liefert.
|
||
|
||
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
|
||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
|
||
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
|
||
$f(U) ⊆ U$ ist.
|
||
\end{lemma}
|
||
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
|
||
Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr
|
||
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
|
||
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
|
||
Fall, dass $f$ keinen reellen Eigenwert hat.
|
||
|
||
Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des
|
||
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
|
||
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende
|
||
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
|
||
Nullstelle ist,
|
||
\[
|
||
χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ}
|
||
\overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
|
||
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
|
||
\]
|
||
Ich betrachte jetzt für den Endomorphismus $f^{ℂ}$ einen Eigenvektor
|
||
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{ℂ}$ zum Eigenwert $λ$.
|
||
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
|
||
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{ℂ}$ ein Eigenvektor zum
|
||
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
|
||
ist dann $ℂ$-linear unabhängig, ebenso die Menge
|
||
\[
|
||
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
|
||
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
|
||
\]
|
||
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
|
||
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
|
||
\begin{align*}
|
||
f(\vec{v}_1) & = f^{ℂ}(\vec{v_1}) = f^{ℂ} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
|
||
& = \frac{1}{2}·\left( f^{ℂ}(\vec{v}) + f^{ℂ}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
|
||
& = a·\vec{v}_1 - b·\vec{v}_2.
|
||
\end{align*}
|
||
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von
|
||
$\vec{v}_1$ und $\vec{v}_2$ ist, womit Lemma~\ref{lem:9-2-10} bewiesen wäre.
|
||
\end{proof}
|
||
|
||
\begin{proof}[Beweis von Satz~\ref{satz:9-2-9}]
|
||
\video{14-5}
|
||
\end{proof}
|
||
|
||
% !TEX root = LineareAlgebra2
|