Spellchecking

This commit is contained in:
Stefan Kebekus 2025-05-23 14:48:51 +02:00
parent 2bc4283c2d
commit 9a0ab78a70
3 changed files with 103 additions and 105 deletions

View File

@ -56,3 +56,7 @@ Identifikationen
semi-linear
Quotientenräume
Rückzugsabbildung
Determinanten-Multiplikationssatz
Komplexifizierung
komplexifizierten
komplexifizierte

View File

@ -50,3 +50,5 @@
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}

View File

@ -5,12 +5,12 @@
\section{Orthogonale und unitäre Abbildungen}
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands'' kennen
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
die folgende Situation.
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits orthogonale
Transformationen des $^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
folgende Situation.
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
@ -30,19 +30,19 @@ die folgende Situation.
\]
\end{defn}
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
Transformation des $^n$ bezüglich des Euklidischen Abstands das
Standardskalarprodukt erhält. Damit ist klar, dass
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands'') ein Spezialfall von
Definition~\vref{defn-orthoTraf} (orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands) ein Spezialfall von
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
vorliegende Skript einigermaßen konsistent!
\end{beobachtung}
\begin{bsp}
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
``orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands''
orthogonale Transformation des $^n$ bezüglich des Euklidischen Abstands
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
eine Matrix die an Achsen dreht oder spiegelt.
\end{bsp}
@ -52,13 +52,13 @@ die folgende Situation.
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
\[
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
\]
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
\end{aufgabe}
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
unitär. Dann gilt Folgendes.
\begin{enumerate}
@ -80,18 +80,18 @@ die folgende Situation.
\video{13-3}
\end{proof}
\begin{rem}[Die Determinante]\label{rem:9-1-7}
\begin{rem}[Die Determinante]\label{rem:9-1-7}%
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
Frage.
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
infrage.
\end{rem}
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
\[
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
@ -107,7 +107,7 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
@ -125,7 +125,7 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
$^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
@ -139,7 +139,7 @@ beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
wie immer für die komplex-konjugierte Matrix.
\end{aufgabe}
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
erweitern.
@ -148,12 +148,12 @@ erweitern.
\begin{enumerate}
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
$A^{-1} = A^t$ gilt.
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
A^t$ gilt.
\item Eine Matrix $A ∈ \Mat(n n, )$ heißt
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
$A^{-1} = \overline{A^t}$ gilt.
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
\overline{A^t}$ gilt.
\end{enumerate}
\end{defn}
@ -165,17 +165,16 @@ erweitern.
\mathcal{O}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
\mathcal{U}_n & := \{ A ∈ \Mat(n n, ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
\end{align*}
Der
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
Gruppen handelt.
\end{notation}
\begin{proposition}[Einfache Eigenschaften]
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise
$A ∈ \Mat(n n, )$. Dann sind folgende Aussagen äquivalent.
Es sei $n ∈ $ und es sei $A ∈ \Mat(n n, )$ beziehungsweise $A ∈ \Mat(n
n, )$. Dann sind folgende Aussagen äquivalent.
\begin{enumerate}
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
@ -196,9 +195,9 @@ erweitern.
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
\]
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
Gleichheit $A^t · A = \Id_{n n}$ gilt. Das gilt in unserem Fall aber genau
dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
betrachte dann $A · A^t$.
\end{proof}
@ -243,12 +242,12 @@ zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist un
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
die orthogonalen $2 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
die orthogonalen $22$-Matrizen beschreibe. Um die Fallunterscheidung zu
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, so dass folgende
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α$, sodass folgende
Gleichung gilt.
\[
A =
@ -274,15 +273,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
\end{erkl}
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
sind.
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
folgende Blockgestalt hat
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine
angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
Blockgestalt hat
\[
\begin{pmatrix}
\Id_{a a} & \\
@ -292,9 +291,8 @@ sind.
& & & & A_k \\
\end{pmatrix}
\]
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
$\Id_{}$ jeweils jeweils Einheitsmatrizen der
entsprechenden Größe sind.
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{}$ jeweils
Einheitsmatrizen der entsprechenden Größe sind.
\end{satz}
@ -306,11 +304,10 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
einen komplexen Vektorraum $V^{}$ wie folgt: wir betrachten die Menge
$V^{} := V V$ und definieren eine Addition durch komponentenweise
Addition
einen komplexen Vektorraum $V^$ wie folgt: Wir betrachten die Menge $V^ :=
V V$ und definieren eine Addition durch komponentenweise Addition
\[
+ : (V V) (V V) → V V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
\]
@ -318,7 +315,7 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
\[
· : (V V) → V V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
\]
Rechnen Sie nach, dass dies tatsächlich eine $$-Vektorraum ist, wen wir als
Rechnen Sie nach, dass dies tatsächlich ein $$-Vektorraum ist, wen wir als
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
Vektorraumes} bezeichnen.
\end{konstruktion}
@ -326,8 +323,8 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+\vec{w}$, dann
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
komplexifiziertem Vektorraum}
\[
\overline{} : V V → V V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
@ -335,47 +332,45 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
Vektorraum in seine Komplexifizierung}
\[
ι : V → V^{}, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
ι : V → V^, \quad \vec{v}\bigl(\vec{v}, \vec{0}\bigr).
\]
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^{}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
Teilmenge von $V^$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
\emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
schreiben $\vec{v}^{\:}$.
\end{notation}
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
$B^{} := \{ \vec{v}^{\:}_1, …, \vec{v}^{\:}_n \} ⊂ V^{}$
dann eine Basis von $V^{}$. Noch besser: wenn $f : V → V$ linear ist,
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
$f^{} : V^{} → V^{}$, so dass für alle Indizes $i$ gilt:
$f^{}(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass
$f^{}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{}$ die
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
\vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie
nach, dass die komplexifizierte Basis $B^ := \{ \vec{v}^{\:}_1, …,
\vec{v}^{\:}_n \} ⊂ V^$ dann eine Basis von $V^$. Noch besser: wenn $f : V
→ V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
Abbildung $f^ : V^ → V^$, sodass für alle Indizes $i$ gilt:
$f^(\vec{v}^{\:}_i) = f(\vec{v}_i)^{\:}$. Rechnen Sie nach, dass $f^$
nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^$ die
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
Abbildung}.
\end{konstruktion}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
Vektor $\vec{v} ∈ V$ die Gleichheit
$f(\vec{v})^{} = f^{}(\vec{v}^{\:})$ gilt.
Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ = f^(\vec{v}^{\:})$ gilt.
\end{beobachtung}
\begin{beobachtung}
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
Gleichheiten
\[
\Mat^B_B(f) = \Mat^{B^{}}_{B^{\:}}(f^{}) \quad\text{und}\quad
χ_f(t) = χ_{f^{}}(t)
\Mat^B_B(f) = \Mat^{B^}_{B^{\:}}(f^) \quad\text{und}\quad
χ_f(t) = χ_{f^}(t)
\]
gelten. Insbesondere ist $\Mat^{B^{}}_{B^{\:}}(f^{})$ eine reelle
Matrix und $χ_{f^{}}$ ist ein reelles Polynom. Außerdem ist $f^{}$ mit
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
$\vec{v} ∈ V^{}$ die Gleichung
gelten. Insbesondere ist $\Mat^{B^}_{B^{\:}}(f^)$ eine reelle Matrix und
$χ_{f^}$ ist ein reelles Polynom. Außerdem ist $f^$ mit der Konjugation
verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^$ die
Gleichung
\begin{equation}\label{eq:9-4-7-1}
f^{}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{}\bigl( \vec{v} \bigr)}.
f^\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^\bigl( \vec{v} \bigr)}.
\end{equation}
\end{beobachtung}
@ -384,40 +379,37 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
von $U$ liefert.
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die
Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich
daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
$f|_U : U → U$ einen Isomorphismus von $U$ liefert.
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
$f(U) ⊆ U$ ist.
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
\end{lemma}
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
Fall, dass $f$ keinen reellen Eigenwert hat.
Falls $f$ einen reellen Eigenwert $λ ∈ $ hat, ist die Sache sehr einfach.
Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
\vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$
keinen reellen Eigenwert hat.
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
Nullstelle ist,
Sei $λ = a+i·b ∈ $ eine komplexe Nullstelle des charakteristischen
Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form
$χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ $. Die folgende Rechnung zeigt, dass das
komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
\[
χ_f(\overline{λ}) = \sum a_\overline{λ}ⁱ = \sum a_\overline{λⁱ}
\overset{a_i ∈ }{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
\]
Ich betrachte jetzt für den Endomorphismus $f^{}$ einen Eigenvektor
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{}$ zum Eigenwert $λ$.
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{}$ ein Eigenvektor zum
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
ist dann $$-linear unabhängig, ebenso die Menge
Ich betrachte jetzt für den Endomorphismus $f^$ einen Eigenvektor $\vec{v} =
(\vec{v}_1, \vec{v}_2) ∈ V^$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
-\vec{v}_2) ∈ V^$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die
Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $$-linear unabhängig,
ebenso die Menge
\[
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
@ -425,8 +417,8 @@ von $U$ liefert.
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
\begin{align*}
f(\vec{v}_1) & = f^{}(\vec{v_1}) = f^{} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^{}(\vec{v}) + f^{}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
f(\vec{v}_1) & = f^(\vec{v_1}) = f^ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
& = \frac{1}{2}·\left( f^(\vec{v}) + f^(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
& = a·\vec{v}_1 - b·\vec{v}_2.
\end{align*}
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von