diff --git a/.vscode/ltex.dictionary.de-DE.txt b/.vscode/ltex.dictionary.de-DE.txt index 3c7d9a8..7e55189 100644 --- a/.vscode/ltex.dictionary.de-DE.txt +++ b/.vscode/ltex.dictionary.de-DE.txt @@ -56,3 +56,7 @@ Identifikationen semi-linear Quotientenräume Rückzugsabbildung +Determinanten-Multiplikationssatz +Komplexifizierung +komplexifizierten +komplexifizierte diff --git a/.vscode/ltex.hiddenFalsePositives.de-DE.txt b/.vscode/ltex.hiddenFalsePositives.de-DE.txt index 25599ac..275a27a 100644 --- a/.vscode/ltex.hiddenFalsePositives.de-DE.txt +++ b/.vscode/ltex.hiddenFalsePositives.de-DE.txt @@ -50,3 +50,5 @@ {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"} {"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"} {"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"} +{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"} +{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"} diff --git a/09-Orthogonal-Unitary.tex b/09-Orthogonal-Unitary.tex index 9869eb9..d65f73e 100644 --- a/09-Orthogonal-Unitary.tex +++ b/09-Orthogonal-Unitary.tex @@ -5,12 +5,12 @@ \section{Orthogonale und unitäre Abbildungen} -Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale -Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands'' kennen -gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume -in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den -Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg -die folgende Situation. +Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits „orthogonale +Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands“ kennengelernt. +Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel +größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff +„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die +folgende Situation. \begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1} Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler @@ -30,19 +30,19 @@ die folgende Situation. \] \end{defn} -\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3} +\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}% Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das Standardskalarprodukt erhält. Damit ist klar, dass - Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $ℝ^n$ - bezüglich des Euklidischen Abstands'') ein Spezialfall von + Definition~\vref{defn-orthoTraf} („orthogonale Transformation des $ℝ^n$ + bezüglich des Euklidischen Abstands“) ein Spezialfall von Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das vorliegende Skript einigermaßen konsistent! \end{beobachtung} \begin{bsp} Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für - ``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands'' + „orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands“ Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$ eine Matrix die an Achsen dreht oder spiegelt. \end{bsp} @@ -52,13 +52,13 @@ die folgende Situation. andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung \[ - \bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|. + \bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \| \] gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt. \end{aufgabe} -\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6} +\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}% In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise unitär. Dann gilt Folgendes. \begin{enumerate} @@ -80,18 +80,18 @@ die folgende Situation. \video{13-3} \end{proof} -\begin{rem}[Die Determinante]\label{rem:9-1-7} +\begin{rem}[Die Determinante]\label{rem:9-1-7}% Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt \ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung - ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in - Frage. + ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ + infrage. \end{rem} \begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten] Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte - folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär'' + folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“ falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt: \[ \vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}). @@ -107,14 +107,14 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären Transformation eine Gruppe bilden. -\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9} +\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}% Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir nennen diese Gruppe die \emph{orthogonale Gruppe des Euklidischen Vektorraumes - $\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines - Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des - unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}% + $\bigl( V, \langle •,• \rangle\bigr)$}\index{orthogonale Gruppe!eines + Euklidischen Vektorraumes} beziehungsweise die \emph{unitäre Gruppe des + unitären Vektorraumes $\bigl( V, \langle •,• \rangle\bigr)$}% \index{unitäre Gruppe!eines unitären Vektorraumes}. \end{defn} @@ -125,7 +125,7 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so. -\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1} +\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}% In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind. @@ -139,7 +139,7 @@ beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so. wie immer für die komplex-konjugierte Matrix. \end{aufgabe} -Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'', +Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“, die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu erweitern. @@ -148,12 +148,12 @@ erweitern. \begin{enumerate} \item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt - \emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung - $A^{-1} = A^t$ gilt. + \emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} = + A^t$ gilt. \item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt - \emph{unitär}\index{unitär!Matrix}, falls die Gleichung - $A^{-1} = \overline{A^t}$ gilt. + \emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} = + \overline{A^t}$ gilt. \end{enumerate} \end{defn} @@ -165,17 +165,16 @@ erweitern. \mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\ \mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\ \mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\ - \mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe} + \mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.} \end{align*} - Der - Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$} - stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um + Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det + B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um Gruppen handelt. \end{notation} \begin{proposition}[Einfache Eigenschaften] - Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise - $A ∈ \Mat(n ⨯ n, ℂ)$. Dann sind folgende Aussagen äquivalent. + Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise $A ∈ \Mat(n ⨯ + n, ℂ)$. Dann sind folgende Aussagen äquivalent. \begin{enumerate} \item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär. @@ -196,9 +195,9 @@ erweitern. A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij} \] Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die - Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber - genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber - gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und + Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber genau + dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade + Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und \ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und betrachte dann $A · A^t$. \end{proof} @@ -243,12 +242,12 @@ zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist un Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich -die orthogonalen $2⨯ 2$-Matrizen beschreibe. Um die Fallunterscheidung zu +die orthogonalen $2⨯2$-Matrizen beschreibe. Um die Fallunterscheidung zu verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist. -\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7} - Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende +\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}% + Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, sodass folgende Gleichung gilt. \[ A = @@ -274,15 +273,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist. \end{erkl} Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich -als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen +als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt sind. -\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9} - In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine - angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die - folgende Blockgestalt hat +\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}% + In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine + angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende + Blockgestalt hat \[ \begin{pmatrix} \Id_{a ⨯ a} & \\ @@ -292,9 +291,8 @@ sind. & & & & A_k \\ \end{pmatrix} \] - wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und - $\Id_{• ⨯ •}$ jeweils jeweils Einheitsmatrizen der - entsprechenden Größe sind. + wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{• ⨯ •}$ jeweils + Einheitsmatrizen der entsprechenden Größe sind. \end{satz} @@ -306,11 +304,10 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus einem reellen Vektorraum einen komplexen Vektorraum macht. -\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4} +\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}% Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren - einen komplexen Vektorraum $V^{ℂ}$ wie folgt: wir betrachten die Menge - $V^{ℂ} := V ⨯ V$ und definieren eine Addition durch komponentenweise - Addition + einen komplexen Vektorraum $V^ℂ$ wie folgt: Wir betrachten die Menge $V^ℂ := + V ⨯ V$ und definieren eine Addition durch komponentenweise Addition \[ + : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2) \] @@ -318,64 +315,62 @@ einem reellen Vektorraum einen komplexen Vektorraum macht. \[ · : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}). \] - Rechnen Sie nach, dass dies tatsächlich eine $ℂ$-Vektorraum ist, wen wir als + Rechnen Sie nach, dass dies tatsächlich ein $ℂ$-Vektorraum ist, wen wir als \emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines - Vektorraumes} bezeichnen. + Vektorraumes} bezeichnen. \end{konstruktion} \begin{notation}[Konjugation und komplexifizierung von Vektoren] In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann - wird die Formel für die skalare Multiplikation gleich viel verständlicher. - Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in - komplexifiziertem Vektorraum} + wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir + betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in + komplexifiziertem Vektorraum} \[ \overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr) \] und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines Vektorraum in seine Komplexifizierung} \[ - ι : V → V^{ℂ}, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr). + ι : V → V^ℂ, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr). \] - Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als - Teilmenge von $V^{ℂ}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ - den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und + Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als + Teilmenge von $V^ℂ$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den + \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und schreiben $\vec{v}^{\:ℂ}$. \end{notation} -\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6} - In der Situation von Konstruktion~\ref{kons:9-4-4} sei - $B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen - Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis - $B^{ℂ} := \{ \vec{v}^{\:ℂ}_1, …, \vec{v}^{\:ℂ}_n \} ⊂ V^{ℂ}$ - dann eine Basis von $V^{ℂ}$. Noch besser: wenn $f : V → V$ linear ist, - dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung - $f^{ℂ} : V^{ℂ} → V^{ℂ}$, so dass für alle Indizes $i$ gilt: - $f^{ℂ}(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass - $f^{ℂ}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{ℂ}$ die +\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}% + In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …, + \vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie + nach, dass die komplexifizierte Basis $B^ℂ := \{ \vec{v}^{\:ℂ}_1, …, + \vec{v}^{\:ℂ}_n \} ⊂ V^ℂ$ dann eine Basis von $V^ℂ$. Noch besser: wenn $f : V + → V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine + Abbildung $f^ℂ : V^ℂ → V^ℂ$, sodass für alle Indizes $i$ gilt: + $f^ℂ(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass $f^ℂ$ + nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^ℂ$ die \emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer - Abbildung}. + Abbildung}. \end{konstruktion} \begin{beobachtung} In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden - Vektor $\vec{v} ∈ V$ die Gleichheit - $f(\vec{v})^{ℂ} = f^{ℂ}(\vec{v}^{\:ℂ})$ gilt. + Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ℂ = f^ℂ(\vec{v}^{\:ℂ})$ gilt. \end{beobachtung} \begin{beobachtung} In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die Gleichheiten \[ - \Mat^B_B(f) = \Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ}) \quad\text{und}\quad - χ_f(t) = χ_{f^{ℂ}}(t) + \Mat^B_B(f) = \Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ) \quad\text{und}\quad + χ_f(t) = χ_{f^ℂ}(t) \] - gelten. Insbesondere ist $\Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ})$ eine reelle - Matrix und $χ_{f^{ℂ}}$ ist ein reelles Polynom. Außerdem ist $f^{ℂ}$ mit - der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor - $\vec{v} ∈ V^{ℂ}$ die Gleichung + gelten. Insbesondere ist $\Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ)$ eine reelle Matrix und + $χ_{f^ℂ}$ ist ein reelles Polynom. Außerdem ist $f^ℂ$ mit der Konjugation + verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^ℂ$ die + Gleichung \begin{equation}\label{eq:9-4-7-1} - f^{ℂ}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{ℂ}\bigl( \vec{v} \bigr)}. + f^ℂ\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^ℂ\bigl( \vec{v} \bigr)}. \end{equation} \end{beobachtung} @@ -384,40 +379,37 @@ einem reellen Vektorraum einen komplexen Vektorraum macht. Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es in der Situation des Satzes stets einen ein- oder zwei-dimensionalen -Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet -wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$ -stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der -Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus -$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus -von $U$ liefert. +Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die +Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert +wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich +daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung +$f|_U : U → U$ einen Isomorphismus von $U$ liefert. -\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10} +\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}% In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen - Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass - $f(U) ⊆ U$ ist. + Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist. \end{lemma} \begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}] - Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr - einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze - $U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den - Fall, dass $f$ keinen reellen Eigenwert hat. + Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr einfach. + Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle + \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$ + keinen reellen Eigenwert hat. - Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des - charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell, - also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende - Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine - Nullstelle ist, + Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des charakteristischen + Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form + $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende Rechnung zeigt, dass das + komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist, \[ χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ} \overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum a_i·λⁱ} = \overline{χ_f(λ)} = 0. \] - Ich betrachte jetzt für den Endomorphismus $f^{ℂ}$ einen Eigenvektor - $\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{ℂ}$ zum Eigenwert $λ$. - Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor - $\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{ℂ}$ ein Eigenvektor zum - Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$ - ist dann $ℂ$-linear unabhängig, ebenso die Menge + Ich betrachte jetzt für den Endomorphismus $f^ℂ$ einen Eigenvektor $\vec{v} = + (\vec{v}_1, \vec{v}_2) ∈ V^ℂ$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1} + zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1, + -\vec{v}_2) ∈ V^ℂ$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die + Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $ℂ$-linear unabhängig, + ebenso die Menge \[ \left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} % = \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}. @@ -425,8 +417,8 @@ von $U$ liefert. Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein zwei-dimensionaler reeller Unterraum ist. Außerdem ist \begin{align*} - f(\vec{v}_1) & = f^{ℂ}(\vec{v_1}) = f^{ℂ} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\ - & = \frac{1}{2}·\left( f^{ℂ}(\vec{v}) + f^{ℂ}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\ + f(\vec{v}_1) & = f^ℂ(\vec{v_1}) = f^ℂ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\ + & = \frac{1}{2}·\left( f^ℂ(\vec{v}) + f^ℂ(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\ & = a·\vec{v}_1 - b·\vec{v}_2. \end{align*} Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von