Spellchecking
This commit is contained in:
parent
2bc4283c2d
commit
9a0ab78a70
4
.vscode/ltex.dictionary.de-DE.txt
vendored
4
.vscode/ltex.dictionary.de-DE.txt
vendored
@ -56,3 +56,7 @@ Identifikationen
|
||||
semi-linear
|
||||
Quotientenräume
|
||||
Rückzugsabbildung
|
||||
Determinanten-Multiplikationssatz
|
||||
Komplexifizierung
|
||||
komplexifizierten
|
||||
komplexifizierte
|
||||
|
2
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
2
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -50,3 +50,5 @@
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QWir hatten in letzten Abschnitt das orthogonale Komplement eines Untervektorraumes \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q in kanonischer Weise mit dem Raum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q identifiziert, der uns aus der Vorlesung „Lineare Algebra I“ vertraut war.\\E$"}
|
||||
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QZu jeder linearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q haben wir in der Vorlesung „Lineare Algebra I“ eine „Rückzugsabbildung“ zwischen den Dualräumen definiert, nämlich \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||
{"rule":"DE_CASE","sentence":"^\\QBetrachte das folgende Diagramm: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, isomorph \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, Rückzugsabbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Beim Betrachten des Diagramms \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q fällt auf, dass die Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q von der Wahl der Skalarprodukte abhängen.\\E$"}
|
||||
{"rule":"DE_AGREEMENT","sentence":"^\\QIch hatte oben schon geschrieben, dass die orthogonaler Endomorphismen schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist dementsprechend auch länger als der Vorhergehende.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
|
||||
|
@ -5,12 +5,12 @@
|
||||
|
||||
\section{Orthogonale und unitäre Abbildungen}
|
||||
|
||||
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits ``orthogonale
|
||||
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands'' kennen
|
||||
gelernt. Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume
|
||||
in viel größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den
|
||||
Begriff ``orthogonale Transformation'' verallgemeinern. Wir betrachten durchweg
|
||||
die folgende Situation.
|
||||
Wir hatten in Abschnitt~\vref{sec:orthTrafo} bereits „orthogonale
|
||||
Transformationen des $ℝ^n$ bezüglich des Euklidischen Abstands“ kennengelernt.
|
||||
Nachdem wir in Kapitel~\ref{sec:7} Euklidische und unitäre Vektorräume in viel
|
||||
größerer Allgemeinheit eingeführt haben, werden wir jetzt auch den Begriff
|
||||
„orthogonale Transformation“ verallgemeinern. Wir betrachten durchweg die
|
||||
folgende Situation.
|
||||
|
||||
\begin{situation}[Euklidischer oder unitärer Vektorraum mit Endomorphismus]\label{sit:9-1-1}
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
@ -30,19 +30,19 @@ die folgende Situation.
|
||||
\]
|
||||
\end{defn}
|
||||
|
||||
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}
|
||||
\begin{beobachtung}[Vergleich mit Definition aus Kapitel~\ref{sec:orthTrafo}]\label{beob:9-1-3}%
|
||||
Wir haben in Lemma~\vref{lem:5-4-7} bewiesen, dass jede orthogonale
|
||||
Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands das
|
||||
Standardskalarprodukt erhält. Damit ist klar, dass
|
||||
Definition~\vref{defn-orthoTraf} (``orthogonale Transformation des $ℝ^n$
|
||||
bezüglich des Euklidischen Abstands'') ein Spezialfall von
|
||||
Definition~\vref{defn-orthoTraf} („orthogonale Transformation des $ℝ^n$
|
||||
bezüglich des Euklidischen Abstands“) ein Spezialfall von
|
||||
Definition~\ref{def:9-1-2} ist. Wenigstens an dieser Stelle ist das
|
||||
vorliegende Skript einigermaßen konsistent!
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{bsp}
|
||||
Nach Beobachtung~\ref{beob:9-1-3} ist klar, dass alle Beispiele für
|
||||
``orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands''
|
||||
„orthogonale Transformation des $ℝ^n$ bezüglich des Euklidischen Abstands“
|
||||
Beispiele für orthogonale Transformationen liefern. Konkret: $V = ℝ²$ und $f$
|
||||
eine Matrix die an Achsen dreht oder spiegelt.
|
||||
\end{bsp}
|
||||
@ -52,13 +52,13 @@ die folgende Situation.
|
||||
andere Definition: dort heißt die Abbildung $f$ orthogonal beziehungsweise
|
||||
unitär, falls für alle Vektoren $\vec{v} ∈ V$ die Gleichung
|
||||
\[
|
||||
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|.
|
||||
\bigl\| f(\vec{v}) \bigr\| = \| \vec{v} \|
|
||||
\]
|
||||
gilt. Beweisen Sie eine entsprechende Variante von Lemma~\ref{lem:5-4-7} um
|
||||
zu zeigen, dass diese Definition mit Definition~\ref{def:9-1-2} übereinstimmt.
|
||||
\end{aufgabe}
|
||||
|
||||
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}
|
||||
\begin{proposition}[Einfache Eigenschaften orthogonoaler und unitärer Abbildungen]\label{prop:9-1-6}%
|
||||
In Situation~\ref{sit:9-1-1} sei die Abbildung $f$ orthogonal beziehungsweise
|
||||
unitär. Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
@ -80,18 +80,18 @@ die folgende Situation.
|
||||
\video{13-3}
|
||||
\end{proof}
|
||||
|
||||
\begin{rem}[Die Determinante]\label{rem:9-1-7}
|
||||
\begin{rem}[Die Determinante]\label{rem:9-1-7}%
|
||||
Erinnern Sie sich daran, dass die Determinante eines Endomorphismus das
|
||||
Produkt der Eigenwerte ist (mit algebraischer Vielfachheit!). In der
|
||||
Situation von Proposition~\ref{prop:9-1-6} folgt deshalb aus Punkt
|
||||
\ref{il:9-1-7-2}, dass $|\det f|=1$ ist. Im Fall einer orthogonalen Abbildung
|
||||
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$ in
|
||||
Frage.
|
||||
ist die Determinante reell, also kommen für $\det f$ nur die Zahlen $± 1$
|
||||
infrage.
|
||||
\end{rem}
|
||||
|
||||
\begin{aufgabe}[Es reicht nicht, Orthogonalität zu erhalten]
|
||||
Situation wie in \ref{sit:9-1-1}. Ein Blick auf Punkt~\ref{il:9-1-7-3} könnte
|
||||
folgende Definition nahe legen: wir nennen $f$ ``orthogonal'' oder ``unitär''
|
||||
folgende Definition nahe legen: Wir nennen $f$ „orthogonal“ oder „unitär“
|
||||
falls für alle Vektoren $\vec{v}, \vec{w} ∈ V$ die gilt:
|
||||
\[
|
||||
\vec{v} \perp \vec{w} ⇔ f(\vec{v}) \perp f(\vec{w}).
|
||||
@ -107,7 +107,7 @@ Genau wie in Korollar~\ref{kor:5-2-5} folgt direkt aus
|
||||
Proposition~\ref{prop:9-1-6}, dass die orthogonalen beziehungsweise unitären
|
||||
Transformation eine Gruppe bilden.
|
||||
|
||||
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}
|
||||
\begin{defn}[Orthogonale beziehungsweise unitäre Gruppe]\label{def:9-1-9}%
|
||||
Es sei $\bigl( V, \langle •,• \rangle\bigr)$ ein endlich-dimensionaler
|
||||
Euklidischer oder unitärer Vektorraum. Dann bilden die orthogonalen
|
||||
beziehungsweise unitären Abbildungen eine Untergruppe von $\Aut(V)$. Wir
|
||||
@ -125,7 +125,7 @@ Wir hatten im Abschnitt~\ref{sec:5-5} die orthogonalen Transformationen des
|
||||
$ℝ^n$ bezüglich des Euklidischen Abstands durch orthogonale Matrizen
|
||||
beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
||||
|
||||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}
|
||||
\begin{aufgabe}[Matrizen orthogonaler Transformationen]\label{satz:9-2-1}%
|
||||
In Situation~\ref{sit:9-1-1} sei $B := \{ \vec{v}_1, …, \vec{v}_n \}$ eine
|
||||
angeordnete Orthonormalbasis von $V$. Beweisen Sie in völliger Analogie zu
|
||||
Satz~\ref{satz:5-5-2}, dass die folgenden Aussagen äquivalent sind.
|
||||
@ -139,7 +139,7 @@ beschrieben. Das geht in unserem verallgemeinerten Fall ganz genau so.
|
||||
wie immer für die komplex-konjugierte Matrix.
|
||||
\end{aufgabe}
|
||||
|
||||
Nach dieser Aufgabe ist es sinnvoll, die Definition von ``orthogonaler Matrix'',
|
||||
Nach dieser Aufgabe ist es sinnvoll, die Definition von „orthogonaler Matrix“,
|
||||
die wir auf Seite~\pageref{def:5-5-3} gegeben hatten, zu wiederholen und zu
|
||||
erweitern.
|
||||
|
||||
@ -148,12 +148,12 @@ erweitern.
|
||||
|
||||
\begin{enumerate}
|
||||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℝ)$ heißt
|
||||
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung
|
||||
$A^{-1} = A^t$ gilt.
|
||||
\emph{orthogonal}\index{orthogonal!Matrix}, falls die Gleichung $A^{-1} =
|
||||
A^t$ gilt.
|
||||
|
||||
\item Eine Matrix $A ∈ \Mat(n ⨯ n, ℂ)$ heißt
|
||||
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung
|
||||
$A^{-1} = \overline{A^t}$ gilt.
|
||||
\emph{unitär}\index{unitär!Matrix}, falls die Gleichung $A^{-1} =
|
||||
\overline{A^t}$ gilt.
|
||||
\end{enumerate}
|
||||
\end{defn}
|
||||
|
||||
@ -165,17 +165,16 @@ erweitern.
|
||||
\mathcal{O}_n & := \{ A ∈ \Mat(n ⨯ n, ℝ) \::\: A \text{ ist orthogonal}\} && \text{… orthogonale Gruppe} \\
|
||||
\mathcal{SO}_n & := \{ A ∈ \mathcal{O}_n \::\: \det A =1 \} && \text{… spezielle orthogonale Gruppe} \\
|
||||
\mathcal{U}_n & := \{ A ∈ \Mat(n ⨯ n, ℂ) \::\: A \text{ ist unitär}\} && \text{… unitäre Gruppe} \\
|
||||
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe}
|
||||
\mathcal{SU}_n & := \{ A ∈ \mathcal{U}_n \::\: \det A =1 \} && \text{… spezielle unitäre Gruppe.}
|
||||
\end{align*}
|
||||
Der
|
||||
Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det B)$}
|
||||
stellt sicher, dass es sich bei den ``speziellen Gruppen'' tatsächlich um
|
||||
Der Determinanten-Multiplikationssatz\footnote{$\det (A·B) = (\det A) · (\det
|
||||
B)$} stellt sicher, dass es sich bei den „speziellen Gruppen“ tatsächlich um
|
||||
Gruppen handelt.
|
||||
\end{notation}
|
||||
|
||||
\begin{proposition}[Einfache Eigenschaften]
|
||||
Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise
|
||||
$A ∈ \Mat(n ⨯ n, ℂ)$. Dann sind folgende Aussagen äquivalent.
|
||||
Es sei $n ∈ ℕ$ und es sei $A ∈ \Mat(n ⨯ n, ℝ)$ beziehungsweise $A ∈ \Mat(n ⨯
|
||||
n, ℂ)$. Dann sind folgende Aussagen äquivalent.
|
||||
\begin{enumerate}
|
||||
\item\label{il:9-2-4-1} Die Matrix $A$ ist orthogonal beziehungsweise unitär.
|
||||
|
||||
@ -196,9 +195,9 @@ erweitern.
|
||||
A^t · A = \bigl( \langle \vec{s}_i, \vec{s}_j\rangle \bigr)_{ij}
|
||||
\]
|
||||
Beachte, dass $A$ per Definition genau dann orthogonal ist, wenn die
|
||||
Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber
|
||||
genau dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber
|
||||
gerade Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
|
||||
Gleichheit $A^t · A = \Id_{n⨯ n}$ gilt. Das gilt in unserem Fall aber genau
|
||||
dann, wenn $\langle s_i, s_j \rangle = δ_{ij}$ ist, und das ist aber gerade
|
||||
Bedingung \ref{il:9-2-4-2}. Die Äquivalenz von \ref{il:9-2-4-1} und
|
||||
\ref{il:9-2-4-3} beweist man analog, nur schreibe $A$ als Zeilenvektoren und
|
||||
betrachte dann $A · A^t$.
|
||||
\end{proof}
|
||||
@ -243,12 +242,12 @@ zeigt sich, dass die Situation über den komplexen Zahlen relativ einfach ist un
|
||||
Ich hatte oben schon geschrieben, dass die orthogonaler Endomorphismen
|
||||
schwieriger zu beschreiben sind als unitäre; dieser Abschnitt ist
|
||||
dementsprechend auch länger als der Vorhergehende. Ich fange damit an, dass ich
|
||||
die orthogonalen $2⨯ 2$-Matrizen beschreibe. Um die Fallunterscheidung zu
|
||||
die orthogonalen $2⨯2$-Matrizen beschreibe. Um die Fallunterscheidung zu
|
||||
verstehen, erinnern sie sich bitte an Bemerkung~\vref{rem:9-1-7}, die
|
||||
sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
||||
|
||||
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}
|
||||
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, so dass folgende
|
||||
\begin{satz}[Normalform von Matrizen aus $\mathcal{O}_2$]\label{satz:9-2-7}%
|
||||
Sei $A ∈ \mathcal{O}_2$. Dann gibt es eine Zahl $α ∈ ℝ$, sodass folgende
|
||||
Gleichung gilt.
|
||||
\[
|
||||
A =
|
||||
@ -274,15 +273,15 @@ sicherstellt, dass die Determinante einer orthogonalen Matrix stets $± 1$ ist.
|
||||
\end{erkl}
|
||||
|
||||
Nachdem die Matrizen aus $\mathcal{O}_2$ ganz gut verstanden sind, möchte ich
|
||||
als nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
|
||||
als Nächstes erklären, wie man sich die Matrizen aus $\mathcal{O}_n$ vorstellen
|
||||
soll, für beliebigen Index $n$. Der folgende Satz zeigt, wie die orthogonalen
|
||||
Matrizen beliebiger Dimension aus Drehungen und Spiegelungen zusammengesetzt
|
||||
sind.
|
||||
|
||||
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}
|
||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthonogonal. Dann gibt es eine
|
||||
angeordnete Orthonormalbasis $B$, so dass die Matrix $\Mat^B_B(f)$ die
|
||||
folgende Blockgestalt hat
|
||||
\begin{satz}[Normalform für Matrizen aus $\mathcal{O}_n$]\label{satz:9-2-9}%
|
||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es eine
|
||||
angeordnete Orthonormalbasis $B$, sodass die Matrix $\Mat^B_B(f)$ die folgende
|
||||
Blockgestalt hat
|
||||
\[
|
||||
\begin{pmatrix}
|
||||
\Id_{a ⨯ a} & \\
|
||||
@ -292,9 +291,8 @@ sind.
|
||||
& & & & A_k \\
|
||||
\end{pmatrix}
|
||||
\]
|
||||
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und
|
||||
$\Id_{• ⨯ •}$ jeweils jeweils Einheitsmatrizen der
|
||||
entsprechenden Größe sind.
|
||||
wobei die $A_1, …, A_k ∈ \mathcal{SO}_2$ sind und $\Id_{• ⨯ •}$ jeweils
|
||||
Einheitsmatrizen der entsprechenden Größe sind.
|
||||
\end{satz}
|
||||
|
||||
|
||||
@ -306,11 +304,10 @@ kompliziert sind und alles viel einfacher wäre, wenn wir über komplexe
|
||||
Vektorräume reden dürften. Deshalb diskutiere ich ein Verfahren, wie man aus
|
||||
einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
|
||||
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}
|
||||
\begin{konstruktion}[Komplexifizierung eines reellen Vektorraumes]\label{kons:9-4-4}%
|
||||
Es sei $V$ ein endlich-dimensionaler reeller Vektorraum. Wir konstruieren
|
||||
einen komplexen Vektorraum $V^{ℂ}$ wie folgt: wir betrachten die Menge
|
||||
$V^{ℂ} := V ⨯ V$ und definieren eine Addition durch komponentenweise
|
||||
Addition
|
||||
einen komplexen Vektorraum $V^ℂ$ wie folgt: Wir betrachten die Menge $V^ℂ :=
|
||||
V ⨯ V$ und definieren eine Addition durch komponentenweise Addition
|
||||
\[
|
||||
+ : (V ⨯ V)⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((\vec{a}_1, \vec{b}_1), (\vec{a}_2, \vec{b}_2)\bigr) ↦ (\vec{a}_1+\vec{a}_2,\vec{b}_1+\vec{b}_2)
|
||||
\]
|
||||
@ -318,7 +315,7 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
\[
|
||||
· : ℂ ⨯ (V ⨯ V) → V ⨯ V, \quad \bigl((a+i·b), (\vec{v}, \vec{w})\bigr) ↦ (a·\vec{v}-b·\vec{w},b·\vec{v}+a·\vec{w}).
|
||||
\]
|
||||
Rechnen Sie nach, dass dies tatsächlich eine $ℂ$-Vektorraum ist, wen wir als
|
||||
Rechnen Sie nach, dass dies tatsächlich ein $ℂ$-Vektorraum ist, wen wir als
|
||||
\emph{Komplexifizierung des Vektorraumes $V$}\index{Komplexifizierung!eines
|
||||
Vektorraumes} bezeichnen.
|
||||
\end{konstruktion}
|
||||
@ -326,8 +323,8 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
\begin{notation}[Konjugation und komplexifizierung von Vektoren]
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-4} schreiben wir die Elemente
|
||||
statt $(\vec{v}, \vec{w})$ suggestiv in der Form $\vec{v}+i·\vec{w}$, dann
|
||||
wird die Formel für die skalare Multiplikation gleich viel verständlicher.
|
||||
Wir betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
|
||||
wird die Formel für die skalare Multiplikation gleich viel verständlicher. Wir
|
||||
betrachten noch die \emph{komplexe Konjugation}\index{Konjugation!in
|
||||
komplexifiziertem Vektorraum}
|
||||
\[
|
||||
\overline{•} : V ⨯ V → V ⨯ V, \quad \bigl(\vec{v}, \vec{w}\bigr) ↦ \bigl(\vec{v}, -\vec{w}\bigr)
|
||||
@ -335,47 +332,45 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
und die \emph{kanonische Inklusion}\index{kanonische Inklusion eines
|
||||
Vektorraum in seine Komplexifizierung}
|
||||
\[
|
||||
ι : V → V^{ℂ}, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
|
||||
ι : V → V^ℂ, \quad \vec{v} ↦ \bigl(\vec{v}, \vec{0}\bigr).
|
||||
\]
|
||||
Mit Hilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
|
||||
Teilmenge von $V^{ℂ}$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$
|
||||
den \emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
|
||||
Mithilfe der injektiven Abbildung $ι$ fassen wir den Vektorraum $V$ als
|
||||
Teilmenge von $V^ℂ$ auf; gegeben $\vec{v} ∈ V$ nennen wir $ι(\vec{v})$ den
|
||||
\emph{komplexifizierten Vektor}\index{Komplexifizierung!eines Vektors} und
|
||||
schreiben $\vec{v}^{\:ℂ}$.
|
||||
\end{notation}
|
||||
|
||||
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-4} sei
|
||||
$B := \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine Basis des reellen
|
||||
Vektorraumes $V$ ist. Rechnen Sie nach, dass die komplexifizierte Basis
|
||||
$B^{ℂ} := \{ \vec{v}^{\:ℂ}_1, …, \vec{v}^{\:ℂ}_n \} ⊂ V^{ℂ}$
|
||||
dann eine Basis von $V^{ℂ}$. Noch besser: wenn $f : V → V$ linear ist,
|
||||
dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine Abbildung
|
||||
$f^{ℂ} : V^{ℂ} → V^{ℂ}$, so dass für alle Indizes $i$ gilt:
|
||||
$f^{ℂ}(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass
|
||||
$f^{ℂ}$ nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^{ℂ}$ die
|
||||
\begin{konstruktion}[Komplexifizierung einer linearen Abbildung]\label{kons:9-4-6}%
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-4} sei $B := \{ \vec{v}_1, …,
|
||||
\vec{v}_n \} ⊂ V$ eine Basis des reellen Vektorraumes $V$ ist. Rechnen Sie
|
||||
nach, dass die komplexifizierte Basis $B^ℂ := \{ \vec{v}^{\:ℂ}_1, …,
|
||||
\vec{v}^{\:ℂ}_n \} ⊂ V^ℂ$ dann eine Basis von $V^ℂ$. Noch besser: wenn $f : V
|
||||
→ V$ linear ist, dann gibt es nach dem Satz vom Wünsch-Dir-Was genau eine
|
||||
Abbildung $f^ℂ : V^ℂ → V^ℂ$, sodass für alle Indizes $i$ gilt:
|
||||
$f^ℂ(\vec{v}^{\:ℂ}_i) = f(\vec{v}_i)^{\:ℂ}$. Rechnen Sie nach, dass $f^ℂ$
|
||||
nicht von der Wahl der Basis $B$ abhängt! Wir nennen $f^ℂ$ die
|
||||
\emph{Komplexifizierung der Abbildung $f$}\index{Komplexifizierung!einer
|
||||
Abbildung}.
|
||||
\end{konstruktion}
|
||||
|
||||
\begin{beobachtung}
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass für jeden
|
||||
Vektor $\vec{v} ∈ V$ die Gleichheit
|
||||
$f(\vec{v})^{ℂ} = f^{ℂ}(\vec{v}^{\:ℂ})$ gilt.
|
||||
Vektor $\vec{v} ∈ V$ die Gleichheit $f(\vec{v})^ℂ = f^ℂ(\vec{v}^{\:ℂ})$ gilt.
|
||||
\end{beobachtung}
|
||||
|
||||
\begin{beobachtung}
|
||||
In der Situation von Konstruktion~\ref{kons:9-4-6} ist klar, dass die
|
||||
Gleichheiten
|
||||
\[
|
||||
\Mat^B_B(f) = \Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ}) \quad\text{und}\quad
|
||||
χ_f(t) = χ_{f^{ℂ}}(t)
|
||||
\Mat^B_B(f) = \Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ) \quad\text{und}\quad
|
||||
χ_f(t) = χ_{f^ℂ}(t)
|
||||
\]
|
||||
gelten. Insbesondere ist $\Mat^{B^{ℂ}}_{B^{\:ℂ}}(f^{ℂ})$ eine reelle
|
||||
Matrix und $χ_{f^{ℂ}}$ ist ein reelles Polynom. Außerdem ist $f^{ℂ}$ mit
|
||||
der Konjugation verträglich. Genauer gesagt gilt für jeden Vektor
|
||||
$\vec{v} ∈ V^{ℂ}$ die Gleichung
|
||||
gelten. Insbesondere ist $\Mat^{B^ℂ}_{B^{\:ℂ}}(f^ℂ)$ eine reelle Matrix und
|
||||
$χ_{f^ℂ}$ ist ein reelles Polynom. Außerdem ist $f^ℂ$ mit der Konjugation
|
||||
verträglich. Genauer gesagt gilt für jeden Vektor $\vec{v} ∈ V^ℂ$ die
|
||||
Gleichung
|
||||
\begin{equation}\label{eq:9-4-7-1}
|
||||
f^{ℂ}\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^{ℂ}\bigl( \vec{v} \bigr)}.
|
||||
f^ℂ\bigl( \overline{\vec{v}}\: \bigr) = \overline{ f^ℂ\bigl( \vec{v} \bigr)}.
|
||||
\end{equation}
|
||||
\end{beobachtung}
|
||||
|
||||
@ -384,40 +379,37 @@ einem reellen Vektorraum einen komplexen Vektorraum macht.
|
||||
|
||||
Wir beginnen den Beweis von Satz~\ref{satz:9-2-9} mit der Feststellung, dass es
|
||||
in der Situation des Satzes stets einen ein- oder zwei-dimensionalen
|
||||
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet
|
||||
wird. Die Queen würde vornehmer formulieren und sagen: ``… der von $f$
|
||||
stabilisiert wird''\index{stabiler Untervektorraum}. Ich erinnere bei der
|
||||
Gelegenheit gleich daran, dass $f$ isomorph ist. Also folgt aus
|
||||
$f(U) ⊂ U$, dass die Einschränkung $f|_U : U → U$ einen Isomorphismus
|
||||
von $U$ liefert.
|
||||
Untervektorraum $U ⊆ V$ gibt, der von $f$ auf sich selbst abgebildet wird. Die
|
||||
Queen würde vornehmer formulieren und sagen: „… der von $f$ stabilisiert
|
||||
wird“\index{stabiler Untervektorraum}. Ich erinnere bei der Gelegenheit gleich
|
||||
daran, dass $f$ isomorph ist. Also folgt aus $f(U) ⊂ U$, dass die Einschränkung
|
||||
$f|_U : U → U$ einen Isomorphismus von $U$ liefert.
|
||||
|
||||
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}
|
||||
\begin{lemma}[Stabile Unterräume kleiner Dimension]\label{lem:9-2-10}%
|
||||
In Situation~\ref{sit:9-1-1} sei $f: V → V$ orthogonal. Dann gibt es einen
|
||||
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, so dass
|
||||
$f(U) ⊆ U$ ist.
|
||||
Untervektorraum $U ⊆ V$ mit $\dim U ∈ \{ 1, 2\}$, sodass $f(U) ⊆ U$ ist.
|
||||
\end{lemma}
|
||||
\begin{proof}[Beweis von Lemma~\ref{lem:9-2-10}]
|
||||
Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr
|
||||
einfach. Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze
|
||||
$U := \langle \vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den
|
||||
Fall, dass $f$ keinen reellen Eigenwert hat.
|
||||
Falls $f$ einen reellen Eigenwert $λ ∈ ℝ$ hat, ist die Sache sehr einfach.
|
||||
Wähle einen zugehörenden Eigenvektor $\vec{v} ∈ V$ und setze $U := \langle
|
||||
\vec{v}\, \rangle$, fertig. Also betrachten wir nur noch den Fall, dass $f$
|
||||
keinen reellen Eigenwert hat.
|
||||
|
||||
Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des
|
||||
charakteristischen Polynoms. Das charakteristische Polynom von $f$ ist reell,
|
||||
also von der Form $χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende
|
||||
Rechnung zeigt, dass das komplex-konjugierte $\overline{λ}$ dann auch eine
|
||||
Nullstelle ist,
|
||||
Sei $λ = a+i·b ∈ ℂ ∖ ℝ$ eine komplexe Nullstelle des charakteristischen
|
||||
Polynoms. Das charakteristische Polynom von $f$ ist reell, also von der Form
|
||||
$χ_f(t) = \sum a_i·tⁱ$, mit $a_i ∈ ℝ$. Die folgende Rechnung zeigt, dass das
|
||||
komplex-konjugierte $\overline{λ}$ dann auch eine Nullstelle ist,
|
||||
\[
|
||||
χ_f(\overline{λ}) = \sum a_i·\overline{λ}ⁱ = \sum a_i·\overline{λⁱ}
|
||||
\overset{a_i ∈ ℝ}{=} \sum \overline{a_i}·\overline{λⁱ} = \overline{\sum
|
||||
a_i·λⁱ} = \overline{χ_f(λ)} = 0.
|
||||
\]
|
||||
Ich betrachte jetzt für den Endomorphismus $f^{ℂ}$ einen Eigenvektor
|
||||
$\vec{v} = (\vec{v}_1, \vec{v}_2) ∈ V^{ℂ}$ zum Eigenwert $λ$.
|
||||
Gleichung~\eqref{eq:9-4-7-1} zeigt mir dann, dass der konjugierte Vektor
|
||||
$\overline{\vec{v}} = (\vec{v}_1, -\vec{v}_2) ∈ V^{ℂ}$ ein Eigenvektor zum
|
||||
Eigenwert $\overline{λ}$ ist. Die Menge $\{ \vec{v}, \overline{\vec{v}}\}$
|
||||
ist dann $ℂ$-linear unabhängig, ebenso die Menge
|
||||
Ich betrachte jetzt für den Endomorphismus $f^ℂ$ einen Eigenvektor $\vec{v} =
|
||||
(\vec{v}_1, \vec{v}_2) ∈ V^ℂ$ zum Eigenwert $λ$. Gleichung~\eqref{eq:9-4-7-1}
|
||||
zeigt mir dann, dass der konjugierte Vektor $\overline{\vec{v}} = (\vec{v}_1,
|
||||
-\vec{v}_2) ∈ V^ℂ$ ein Eigenvektor zum Eigenwert $\overline{λ}$ ist. Die
|
||||
Menge $\{ \vec{v}, \overline{\vec{v}}\}$ ist dann $ℂ$-linear unabhängig,
|
||||
ebenso die Menge
|
||||
\[
|
||||
\left\{ \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,), \frac{i}{2}·(\vec{v}-\overline{\vec{v}}\,)\right\} %
|
||||
= \left\{ (\vec{v}_1, \vec{0}), (\vec{v}_2, \vec{0})\right\}.
|
||||
@ -425,8 +417,8 @@ von $U$ liefert.
|
||||
Es folgt, dass $U := \langle \vec{v}_1, \vec{v}_2 \rangle ⊆ V$ ein
|
||||
zwei-dimensionaler reeller Unterraum ist. Außerdem ist
|
||||
\begin{align*}
|
||||
f(\vec{v}_1) & = f^{ℂ}(\vec{v_1}) = f^{ℂ} \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
|
||||
& = \frac{1}{2}·\left( f^{ℂ}(\vec{v}) + f^{ℂ}(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
|
||||
f(\vec{v}_1) & = f^ℂ(\vec{v_1}) = f^ℂ \left( \frac{1}{2}·(\vec{v}+\overline{\vec{v}}\,) \right) \\
|
||||
& = \frac{1}{2}·\left( f^ℂ(\vec{v}) + f^ℂ(\overline{\vec{v}}\,) \right) = \frac{1}{2}·\left( λ·\vec{v} + \overline{λ}·\overline{\vec{v}}\, \right) \\
|
||||
& = a·\vec{v}_1 - b·\vec{v}_2.
|
||||
\end{align*}
|
||||
Analog rechnet man nach, dass $f(\vec{v}_2)$ eine reelle Linearkombination von
|
||||
|
Loading…
x
Reference in New Issue
Block a user