Working
This commit is contained in:
parent
ed0e972443
commit
4b1c86c1ea
10
.vscode/ltex.dictionary.de-DE.txt
vendored
10
.vscode/ltex.dictionary.de-DE.txt
vendored
@ -97,3 +97,13 @@ Kronecker-Produkt
|
|||||||
Kronecker
|
Kronecker
|
||||||
Tensorprodukträume
|
Tensorprodukträume
|
||||||
Tensorproduktkonstruktion
|
Tensorproduktkonstruktion
|
||||||
|
Tensorproduktabbildung
|
||||||
|
Multiplikationsabbildung
|
||||||
|
Permutationsgruppe
|
||||||
|
Erzeugendensystemen
|
||||||
|
auszumultiplizieren
|
||||||
|
inner-mathematischen
|
||||||
|
zerlegungsgleich
|
||||||
|
Zerlegungsgleichheit
|
||||||
|
Invarianteneigenschaft
|
||||||
|
Quotientenvektorraum
|
||||||
|
13
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
13
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -64,3 +64,16 @@
|
|||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}
|
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}
|
||||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"}
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"}
|
||||||
|
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWorum geht es?.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin Tensorprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDeshalb liefert uns die universelle Eigenschaft aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und ein kommutatives Diagramm wie folgt, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
|
||||||
|
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVielleicht sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, so dass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert ein \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt.\\E$"}
|
||||||
|
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QAlso ist \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qbinomi \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
|
||||||
|
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QErinnern Sie sich an die letzten Vorlesungen von „Lineare Algebra I“?\\E$"}
|
||||||
|
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q…und was kann ich jetzt damit machen?.\\E$"}
|
||||||
|
@ -26,7 +26,7 @@ direkte Summe,
|
|||||||
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
|
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
|
||||||
mehr Komponenten. Ich erhalte so Vektorräume
|
mehr Komponenten. Ich erhalte so Vektorräume
|
||||||
\[
|
\[
|
||||||
V ⨯ V ⨯ V \quad\text{oder}\quad \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯}
|
V ⨯ V ⨯ V \quad\text{oder}\quad \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯}.
|
||||||
\]
|
\]
|
||||||
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
|
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
|
||||||
verallgemeinern.
|
verallgemeinern.
|
||||||
@ -70,12 +70,12 @@ gibt, die auch unterschiedliche Ergebnisse liefern.
|
|||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von
|
In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von
|
||||||
$V^i$ auch als Abbildungen $I → V$ auffassen.
|
$V^I$ auch als Abbildungen $I → V$ auffassen.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}%
|
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}%
|
||||||
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
|
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
|
||||||
ist, nennt man $k^I$ auch den \emph{von der Menge $I$ frei erzeugten
|
ist, nennt man $k^{(I)}$ auch den \emph{von der Menge $I$ frei erzeugten
|
||||||
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
|
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
|
||||||
betrachte den Vektor
|
betrachte den Vektor
|
||||||
\[
|
\[
|
||||||
|
@ -9,7 +9,7 @@
|
|||||||
|
|
||||||
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
|
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
|
||||||
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
|
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
|
||||||
es ist, dass all bilinearen Abbildungen von $U⨯V → W$ ``von $U⊗V$ kommen'', und
|
es ist, dass all bilinearen Abbildungen von $U ⨯ V → W$ „von $U⊗V$ kommen“, und
|
||||||
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
|
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
|
||||||
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
|
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
|
||||||
präzise.
|
präzise.
|
||||||
@ -19,12 +19,12 @@ präzise.
|
|||||||
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
|
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
|
||||||
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U ⨯ V → T$,
|
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U ⨯ V → T$,
|
||||||
sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U ⨯ V →
|
sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U ⨯ V →
|
||||||
W$ gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende
|
W$ gibt es genau eine lineare Abbildung $η: T → W$, sodass das folgende
|
||||||
Diagramm kommutiert:
|
Diagramm kommutiert:
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}[column sep=2cm]
|
\begin{tikzcd}[column sep=2cm]
|
||||||
U⨯V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
|
U ⨯ V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
|
||||||
U⨯V \ar[r, "s\text{, bilinear}"'] & W .
|
U ⨯ V \ar[r, "s\text{, bilinear}"'] & W .
|
||||||
\end{tikzcd}
|
\end{tikzcd}
|
||||||
\]
|
\]
|
||||||
\end{defn}
|
\end{defn}
|
||||||
@ -32,10 +32,10 @@ präzise.
|
|||||||
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
|
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
|
||||||
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
|
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
|
||||||
|
|
||||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
|
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}%
|
||||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter
|
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1
|
||||||
seien $τ_1 : U⨯ V → T_1$ und $τ_1 : U⨯ V → T_2$ zwei Tensorprodukte. Dann
|
: U ⨯ V → T_1$ und $τ_1 : U ⨯ V → T_2$ zwei Tensorprodukte. Dann gibt es
|
||||||
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
|
einen kanonischen Isomorphismus $T_1 ≅ T_2$.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
\video{21-1}
|
\video{21-1}
|
||||||
@ -43,9 +43,9 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
|
|||||||
|
|
||||||
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
|
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
|
||||||
|
|
||||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
|
\begin{satz}[Existenz des Tensorproduktes]\label{satz:15-1-3}%
|
||||||
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann
|
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann existiert
|
||||||
existiert ein Tensorprodukt.
|
ein Tensorprodukt.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
\video{21-2}
|
\video{21-2}
|
||||||
@ -97,8 +97,8 @@ wissen, ob sie Null sind oder nicht.
|
|||||||
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
|
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
|
||||||
Selbst wenn ein gegebener $\vec{τ} = \vec{u}⊗\vec{v} ∈ U⊗V$ ein reiner Tensor
|
Selbst wenn ein gegebener $\vec{τ} = \vec{u}⊗\vec{v} ∈ U⊗V$ ein reiner Tensor
|
||||||
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
|
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
|
||||||
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung
|
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung $τ : U
|
||||||
$τ : U⨯V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit
|
⨯ V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit
|
||||||
\[
|
\[
|
||||||
\vec{u}⊗\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
|
\vec{u}⊗\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
|
||||||
\]
|
\]
|
||||||
@ -110,9 +110,8 @@ wissen, ob sie Null sind oder nicht.
|
|||||||
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
|
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
|
||||||
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
|
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
|
||||||
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
|
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
|
||||||
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit
|
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1⊗\vec{v}_2 =
|
||||||
$\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls
|
\vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls überraschend schwer sein.
|
||||||
überraschend schwer sein.
|
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
|
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
|
||||||
@ -144,17 +143,16 @@ hinschreiben können.
|
|||||||
\begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren]
|
\begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren]
|
||||||
Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als
|
Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als
|
||||||
Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare
|
Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare
|
||||||
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung
|
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, sodass die folgende Gleichung
|
||||||
gilt,
|
gilt,
|
||||||
\[
|
\[
|
||||||
\vec{τ} = \sum_i a_i·(\vec{u_i}⊗\vec{v_i}).
|
\vec{τ} = \sum_i a_i·(\vec{u_i}⊗\vec{v_i}).
|
||||||
\]
|
\]
|
||||||
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
|
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
|
||||||
Index $i$ die Gleichung
|
Index $i$ die Gleichung $a_i·(\vec{u_i}⊗\vec{v_i}) =
|
||||||
$a_i·(\vec{u_i}⊗\vec{v_i}) = (a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht
|
(a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht nur richtig, dass ich jeden
|
||||||
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren
|
Tensor als Linearkombination von reinen Tensoren schreiben kann, es gilt
|
||||||
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen
|
sogar, dass ich jeden Tensor als Summe von reinen Tensoren schreiben kann.
|
||||||
Tensoren schreiben kann.
|
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
|
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
|
||||||
@ -233,7 +231,7 @@ Tensorproduktraum erhält.
|
|||||||
$(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und
|
$(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und
|
||||||
beachten, dass für jedes Paar $(i,j) ∈ I⨯ J$ von Indices die Abbildung
|
beachten, dass für jedes Paar $(i,j) ∈ I⨯ J$ von Indices die Abbildung
|
||||||
\[
|
\[
|
||||||
s_{ij} : U⨯V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
|
s_{ij} : U ⨯ V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
|
||||||
\vec{v}^{\:*}_i(\vec{v})
|
\vec{v}^{\:*}_i(\vec{v})
|
||||||
\]
|
\]
|
||||||
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
|
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
|
||||||
|
@ -4,7 +4,7 @@
|
|||||||
\chapter{Tensorprodukte mit mehreren Faktoren}
|
\chapter{Tensorprodukte mit mehreren Faktoren}
|
||||||
\label{sec:tAlg}
|
\label{sec:tAlg}
|
||||||
|
|
||||||
\sideremark{Vorlesung 22}Das laufende Kapitel heißt ``Multilineare Algebra'',
|
\sideremark{Vorlesung 22}Das laufende Kapitel heißt „Multilineare Algebra“,
|
||||||
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
|
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
|
||||||
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
|
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
|
||||||
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
|
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
|
||||||
@ -17,12 +17,12 @@ nennen.
|
|||||||
\section{Definition, Existenz und Eindeutigkeit}
|
\section{Definition, Existenz und Eindeutigkeit}
|
||||||
|
|
||||||
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
|
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
|
||||||
Begriff ``bilineare Abbildung''. Um das Tensorprodukt auch für eine größere
|
Begriff „bilineare Abbildung“. Um das Tensorprodukt auch für eine größere Zahl
|
||||||
Zahl von Faktoren zu definieren, betrachten wir ganz analog ``multilineare
|
von Faktoren zu definieren, betrachten wir ganz analog „multilineare
|
||||||
Abbildungen''.
|
Abbildungen“.
|
||||||
|
|
||||||
\begin{defn}[Multilineare Abbildungen]
|
\begin{defn}[Multilineare Abbildungen]
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien seien $W$ und $V_1, …, V_n$
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $W$ und $V_1, …, V_n$
|
||||||
jeweils $k$-Vektorräume. Eine Abbildung
|
jeweils $k$-Vektorräume. Eine Abbildung
|
||||||
\[
|
\[
|
||||||
s: V_1⨯ V_2 ⨯ ⋯ ⨯ V_n → W
|
s: V_1⨯ V_2 ⨯ ⋯ ⨯ V_n → W
|
||||||
@ -36,17 +36,16 @@ Abbildungen''.
|
|||||||
\end{multline*}
|
\end{multline*}
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
Mit diesem Begriff von ``Multilinearform'' können wir jetzt ganz allgemein
|
Mit diesem Begriff von „Multilinearform“ können wir jetzt ganz allgemein
|
||||||
Tensorprodukte von mehr als zwei Vektorräumen definieren.
|
Tensorprodukte von mehr als zwei Vektorräumen definieren.
|
||||||
|
|
||||||
\begin{defn}[Tensorprodukt]\label{def:16-1-2}
|
\begin{defn}[Tensorprodukt]\label{def:16-1-2}%
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||||
$V_1, …, V_n$ gegeben. Ein \emph{Tensorprodukt von
|
V_n$ gegeben. Ein \emph{Tensorprodukt von $V_1, …,
|
||||||
$V_1, …, V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein
|
V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein Vektorraum $T$
|
||||||
Vektorraum $T$ zusammen mit einer multilinearen Abbildung
|
zusammen mit einer multilinearen Abbildung $τ: V_1 ⨯ ⋯ ⨯ V_n → T$, sodass für
|
||||||
$τ: V_1 ⨯ ⋯ ⨯ V_n → T$, so dass für alle multilinearen Abbildungen
|
alle multilinearen Abbildungen $s: V_1 ⨯ ⋯ ⨯ V_n → W$ genau eine lineare
|
||||||
$s: V_1 ⨯ ⋯ ⨯ V_n → W$ genau eine lineare Abbildung $η: T → W$ existiert, so
|
Abbildung $η: T → W$ existiert, sodass das folgende Diagramm kommutiert
|
||||||
dass das folgende Diagramm kommutiert
|
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}[column sep=2cm]
|
\begin{tikzcd}[column sep=2cm]
|
||||||
V_1 ⨯ ⋯ ⨯ V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
V_1 ⨯ ⋯ ⨯ V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
||||||
@ -58,57 +57,55 @@ Tensorprodukte von mehr als zwei Vektorräumen definieren.
|
|||||||
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
||||||
Existenz und Eindeutigkeit des Tensorprodukts.
|
Existenz und Eindeutigkeit des Tensorprodukts.
|
||||||
|
|
||||||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}
|
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}%
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||||
$V_1, …, V_n$ gegeben. Weiter seien $τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_1$ und
|
V_n$ gegeben. Weiter seien $τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_1$ und $τ_1 : V_1 ⨯ ⋯ ⨯
|
||||||
$τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen
|
V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus
|
||||||
kanonischen Isomorphismus $T_1 ≅ T_2$. \qed
|
$T_1 ≅ T_2$. \qed
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}
|
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}%
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||||
$V_1, …, V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
|
V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]
|
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]%
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||||
$V_1, …, V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen
|
V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
|
||||||
wir die Sprache, sprechen von ``dem Tensorprodukt'' und schreiben
|
Sprache, sprechen von „dem Tensorprodukt“ und schreiben
|
||||||
\[
|
\[
|
||||||
τ : V_1 ⨯ ⋯ ⨯ V_n → V_1 ⊗ ⋯ ⊗ V_n.
|
τ : V_1 ⨯ ⋯ ⨯ V_n → V_1 ⊗ ⋯ ⊗ V_n.
|
||||||
\]
|
\]
|
||||||
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
|
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1
|
||||||
$\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als
|
⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als \emph{rein}\index{Reine
|
||||||
\emph{rein}\index{Reine Tensoren}.
|
Tensoren}.
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{notation}[Mehrfache Produkte]
|
\begin{notation}[Mehrfache Produkte]
|
||||||
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz
|
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz $V^{⊗
|
||||||
$V^{⊗ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$
|
n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ definieren wir
|
||||||
definieren wir zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen
|
zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen Vektoren $\vec{v}
|
||||||
Vektoren $\vec{v} ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt
|
∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt $\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
|
||||||
$\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
|
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
|
|
||||||
\section{Assoziativität}
|
\section{Assoziativität}
|
||||||
|
|
||||||
Zusätzlich zu ``Existenz'' und ``Eindeutigkeit'' gibt es beim Tensorprodukt mit
|
Zusätzlich zu „Existenz“ und „Eindeutigkeit“ gibt es beim Tensorprodukt mit
|
||||||
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
|
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
|
||||||
die Assoziativität. Der folgende Satz klärt alles.
|
die Assoziativität. Der folgende Satz klärt alles.
|
||||||
|
|
||||||
\begin{satz}[Assoziativität des Tensorproduktes]
|
\begin{satz}[Assoziativität des Tensorproduktes]
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …,
|
||||||
$V_1, …, V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die
|
V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die Vektorräume
|
||||||
Vektorräume
|
|
||||||
\[
|
\[
|
||||||
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
|
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
|
||||||
\]
|
\]
|
||||||
kanonisch isomorph.
|
kanonisch isomorph.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Ich gebe keinen vollen Beweis sondern diskutiere nur die Idee. Sie sollten an
|
Ich gebe keinen vollen Beweis, sondern diskutiere nur die Idee. Sie sollten
|
||||||
dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
|
an dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
|
||||||
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
|
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
|
||||||
Betrachten Sie die Abbildung
|
Betrachten Sie die Abbildung
|
||||||
\[
|
\[
|
||||||
@ -144,10 +141,10 @@ jeweils ohne Beweis die wesentlichen Punkte auf.
|
|||||||
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
|
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
|
||||||
|
|
||||||
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
|
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
|
||||||
lexikographisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
|
lexikografisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
|
||||||
|
|
||||||
\item Falls alle $V_{•}$ endlich-dimensional sind, dann ist
|
\item Falls alle $V_{•}$ endlich-dimensional sind, dann ist $\dim V_1 ⊗ ⋯ ⊗ V_n
|
||||||
$\dim V_1 ⊗ ⋯ ⊗ V_n = \prod_i \dim V_i$
|
= \prod_i \dim V_i$.
|
||||||
|
|
||||||
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
|
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
|
||||||
zwischen den Tensorprodukten.
|
zwischen den Tensorprodukten.
|
||||||
@ -193,13 +190,12 @@ und
|
|||||||
& (λ,ν) & ↦ & λ·ν.
|
& (λ,ν) & ↦ & λ·ν.
|
||||||
\end{matrix}
|
\end{matrix}
|
||||||
\]
|
\]
|
||||||
Diese ``Definitionen'' verwenden die schreckliche Notation~\ref{15-2-7}.
|
Diese „Definitionen“ verwenden die schreckliche Notation~\ref{15-2-7}. Schauen
|
||||||
Schauen Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe
|
Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe nach, dass
|
||||||
nach, dass die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu
|
die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu zeigen? Die
|
||||||
zeigen? Die Abbildung $m_{ab}$ sieht ein bisschen aus wie eine
|
Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Multiplikationsabbildung. Der
|
||||||
Multiplikationsabbildung. Der relevante Begriff ist der einer $k$-Algebra: dies
|
relevante Begriff ist der einer $k$-Algebra: Dies ist ein Vektorraum, der um
|
||||||
ist ein Vektorraum, der um eine mit der Vektorraumstruktur verträgliche
|
eine mit der Vektorraumstruktur verträgliche Multiplikation erweitert wurde.
|
||||||
Multiplikation erweitert wurde.
|
|
||||||
|
|
||||||
\begin{defn}[Algebra über einem Körper]
|
\begin{defn}[Algebra über einem Körper]
|
||||||
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
|
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
|
||||||
@ -211,20 +207,18 @@ Multiplikation erweitert wurde.
|
|||||||
Zusätzlich:
|
Zusätzlich:
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Die Algebra heißt \emph{kommutativ}\index{kommutative
|
\item Die Algebra heißt \emph{kommutativ}\index{kommutative
|
||||||
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
|
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
|
||||||
$\vec{v}_2 ∈ V$ die Gleichheit
|
$\vec{v}_2 ∈ V$ die Gleichheit $m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2,
|
||||||
$m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, \vec{v}_1)$ gilt.
|
\vec{v}_1)$ gilt.
|
||||||
|
|
||||||
\item Die Algebra heißt \emph{assoziativ}\index{assoziative
|
\item Die Algebra heißt \emph{assoziativ}\index{assoziative
|
||||||
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
|
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
|
||||||
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit
|
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $m\bigl(\vec{v}_1, m(\vec{v}_2,
|
||||||
$m\bigl(\vec{v}_1, m(\vec{v}_2, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1,
|
\vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_2), \vec{v}_3 \bigr)$ gilt.
|
||||||
\vec{v}_2), \vec{v}_3 \bigr)$ gilt.
|
|
||||||
|
|
||||||
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
|
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
|
||||||
falls es ein Element $\vec{e} ∈ V$ gibt, so dass für alle Vektoren
|
falls es ein Element $\vec{e} ∈ V$ gibt, sodass für alle Vektoren $\vec{v} ∈
|
||||||
$\vec{v} ∈ V$ die Gleichheit
|
V$ die Gleichheit $m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
|
||||||
$m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
|
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
@ -244,8 +238,8 @@ Beispiele für Algebren kennen Sie schon.
|
|||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
\begin{bsp}[Matrizen]
|
\begin{bsp}[Matrizen]
|
||||||
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n⨯ n, k)$,
|
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n ⨯ n, k)$,
|
||||||
der Vektorraum der $(n⨯ n)$-Matrizen. Die Abbildung $m$ sei die
|
der Vektorraum der $(n ⨯ n)$-Matrizen. Die Abbildung $m$ sei die
|
||||||
Matrixmultiplikation. Diese Algebra ist nicht kommutativ, aber assoziativ und
|
Matrixmultiplikation. Diese Algebra ist nicht kommutativ, aber assoziativ und
|
||||||
besitzt eine Eins.
|
besitzt eine Eins.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
212
17-wedge.tex
212
17-wedge.tex
@ -5,37 +5,37 @@
|
|||||||
\label{sec:wedge}
|
\label{sec:wedge}
|
||||||
|
|
||||||
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
|
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
|
||||||
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf
|
in der Differenzialgeometrie schrecklich wichtig ist: Die äußere Algebra. Auf
|
||||||
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau
|
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genauso
|
||||||
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der
|
langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der Schein
|
||||||
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
|
trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
|
||||||
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
|
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
|
||||||
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten?
|
sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?
|
||||||
|
|
||||||
|
|
||||||
\section{Definition, Existenz und Eindeutigkeit}
|
\section{Definition, Existenz und Eindeutigkeit}
|
||||||
|
|
||||||
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau
|
Die äußere Algebra und das äußere Produkt (auch „Dachprodukt“) ist fast genau so
|
||||||
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige
|
definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige Unterschied
|
||||||
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche
|
ist, dass wir uns bei den multilinearen Abbildungen auf solche Abbildungen
|
||||||
Abbildungen beschränken, die alternierend sind.
|
beschränken, die alternierend sind.
|
||||||
|
|
||||||
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}
|
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}%
|
||||||
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei
|
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei $n
|
||||||
$n ∈ ℕ$ eine Zahl. Eine multilineare Abbildung
|
∈ ℕ$ eine Zahl. Eine multilineare Abbildung
|
||||||
\[
|
\[
|
||||||
s : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → W
|
s : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → W
|
||||||
\]
|
\]
|
||||||
heißt \emph{alternierend}\index{alternierende multilineare
|
heißt \emph{alternierend}\index{alternierende multilineare
|
||||||
Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung
|
Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung
|
||||||
\begin{equation}\label{eq:dfjgh}
|
\begin{equation}\label{eq:dfjgh}
|
||||||
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
|
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
|
||||||
\end{equation}
|
\end{equation}
|
||||||
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
|
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
|
||||||
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt
|
Vektor mal auftritt. Formell: die multilineare Abbildung $s$ heißt
|
||||||
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel
|
alternierend falls die Gleichung~\eqref{eq:dfjgh} für jedes Tupel $(\vec{v}_1,
|
||||||
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei
|
…, \vec{v}_n)$ von Vektoren gilt, für das es zwei unterschiedliche Indizes $i
|
||||||
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
|
\ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
|
||||||
\end{defn}
|
\end{defn}
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
@ -56,7 +56,7 @@ Abbildungen beschränken, die alternierend sind.
|
|||||||
|
|
||||||
\begin{prov}
|
\begin{prov}
|
||||||
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
|
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
|
||||||
``alternierende Multilineare Abbildung'' nehmen?
|
„alternierende Multilineare Abbildung“ nehmen?
|
||||||
\end{prov}
|
\end{prov}
|
||||||
|
|
||||||
\begin{notation}[Produkte]
|
\begin{notation}[Produkte]
|
||||||
@ -68,9 +68,9 @@ Abbildungen beschränken, die alternierend sind.
|
|||||||
|
|
||||||
\begin{bsp}[Determinante]
|
\begin{bsp}[Determinante]
|
||||||
Es sei $k$ ein Körper und es sei $n ∈ ℕ$ eine Zahl. Betrachte Matrizen als
|
Es sei $k$ ein Körper und es sei $n ∈ ℕ$ eine Zahl. Betrachte Matrizen als
|
||||||
Tupel von Spaltenvektoren und identifiziere so den Vektorraum
|
Tupel von Spaltenvektoren und identifiziere so den Vektorraum $\Mat(n⨯ n, k)$
|
||||||
$\Mat(n⨯ n, k)$ der $(n⨯ n)$-Matrizen mit dem Vektorraum
|
der $(n⨯ n)$-Matrizen mit dem Vektorraum $k^n⨯ ⋯ ⨯ k^n$. Dann ist die
|
||||||
$k^n⨯ ⋯ ⨯ k^n$. Dann ist die Determinantenabbildung
|
Determinantenabbildung
|
||||||
\[
|
\[
|
||||||
\det : k^n⨯ ⋯ ⨯ k^n → k
|
\det : k^n⨯ ⋯ ⨯ k^n → k
|
||||||
\]
|
\]
|
||||||
@ -79,20 +79,20 @@ Abbildungen beschränken, die alternierend sind.
|
|||||||
|
|
||||||
\begin{bsp}[Kreuzprodukt]
|
\begin{bsp}[Kreuzprodukt]
|
||||||
Das von Physiker geliebte
|
Das von Physiker geliebte
|
||||||
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem
|
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem $ℝ³$}
|
||||||
$ℝ³$} ist eine alternierende multilineare Abbildung.
|
ist eine alternierende multilineare Abbildung.
|
||||||
\end{bsp}
|
\end{bsp}
|
||||||
|
|
||||||
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
|
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
|
||||||
Vektorräumen definieren.
|
Vektorräumen definieren.
|
||||||
|
|
||||||
\begin{defn}[Äußeres Produkt]\label{def:17-1-4}
|
\begin{defn}[Äußeres Produkt]\label{def:17-1-4} Es sei $k$ ein Körper, es sei $n
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Ein \emph{$n$.tes äußeres
|
||||||
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder
|
Produkt}\index{äußeres Produkt} oder \emph{$n$.tes
|
||||||
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$
|
Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ zusammen mit
|
||||||
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, so
|
einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, sodass für alle
|
||||||
dass für alle multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare
|
multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare Abbildung $η: T →
|
||||||
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert
|
W$ existiert, sodass das folgende Diagramm kommutiert
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}[column sep=4cm]
|
\begin{tikzcd}[column sep=4cm]
|
||||||
V^{⨯ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
V^{⨯ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
||||||
@ -104,45 +104,42 @@ Vektorräumen definieren.
|
|||||||
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
||||||
Existenz und Eindeutigkeit des äußeren Produktes.
|
Existenz und Eindeutigkeit des äußeren Produktes.
|
||||||
|
|
||||||
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}
|
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}%
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||||
gegeben. Weiter seien $τ_1 : V^{⨯n} → T_1$ und $τ_1 : V^{⨯n} → T_2$ zwei
|
gegeben. Weiter seien $τ_1 : V^{⨯n} → T_1$ und $τ_1 : V^{⨯n} → T_2$ zwei
|
||||||
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus
|
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $T_1 ≅
|
||||||
$T_1 ≅ T_2$. \qed
|
T_2$. \qed
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}
|
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}%
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||||
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
|
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
|
||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{notation}[Notation rund um äußere Produkte]
|
\begin{notation}[Notation rund um äußere Produkte]%
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||||||
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
|
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
|
||||||
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben
|
Sprache, sprechen von „dem $n$.ten äußeren Produkt“ und schreiben
|
||||||
\[
|
\[
|
||||||
τ : V^{⨯n} → \bigwedge^n V.
|
τ : V^{⨯n} → \bigwedge^n V.
|
||||||
\]
|
\]
|
||||||
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben
|
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben die
|
||||||
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
|
Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und
|
||||||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von
|
bezeichnen diese Elemente von $Λ^n V$ als \emph{rein}. Etwas
|
||||||
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von
|
umgangssprachlich spricht man von \emph{reinen Dächern}\index{reine Dächer}.
|
||||||
\emph{reinen Dächern}\index{reine Dächer}.
|
|
||||||
\end{notation}
|
\end{notation}
|
||||||
|
|
||||||
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}
|
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}%
|
||||||
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber
|
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber jedes
|
||||||
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen
|
Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Dächern
|
||||||
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß
|
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß Definition~\ref{def:17-1-1} die
|
||||||
Definition~\ref{def:17-1-1} die folgenden Regeln.
|
folgenden Regeln.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit
|
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit $\vec{v}_i =
|
||||||
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$
|
\vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gleich $\vec{0}_{Λ^n V}$.
|
||||||
gleich $\vec{0}_{Λ^n V}$.
|
|
||||||
|
|
||||||
\item Für jede Permutation $ρ ∈ S_n$ ist
|
\item Für jede Permutation $ρ ∈ S_n$ ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n =
|
||||||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯
|
\sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯ Λ \vec{v}_{ρ(n)}$.
|
||||||
Λ \vec{v}_{ρ(n)}$.
|
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
@ -163,9 +160,8 @@ Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
|
|||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
|
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
|
||||||
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa
|
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa $\{ \vec{e}_1, \vec{e}_2\} ⊂
|
||||||
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine
|
ℝ²$ die Einheitsbasis ist, dann ist eine Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
|
||||||
Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
|
|
||||||
\[
|
\[
|
||||||
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
|
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
|
||||||
⊗ \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
|
⊗ \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
|
||||||
@ -184,14 +180,12 @@ Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
|
|||||||
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
|
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
|
||||||
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
|
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
|
||||||
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
|
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
|
||||||
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen
|
Normalerweise würde ich an dieser Stelle einen sehr ausführlichen Beweis geben.
|
||||||
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …)
|
In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf.
|
||||||
verzichte ich darauf.
|
|
||||||
|
|
||||||
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}
|
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}%
|
||||||
In der Situation von Definition~\ref{def:17-1-4} sei
|
In der Situation von Definition~\ref{def:17-1-4} sei $E = \{ \vec{v}_1, …,
|
||||||
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann
|
\vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann ist die Menge
|
||||||
ist die Menge
|
|
||||||
\[
|
\[
|
||||||
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
|
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
|
||||||
\]
|
\]
|
||||||
@ -199,7 +193,7 @@ verzichte ich darauf.
|
|||||||
\end{satz}
|
\end{satz}
|
||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen
|
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikografisch anordnen
|
||||||
sollte!
|
sollte!
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
@ -223,8 +217,8 @@ verzichte ich darauf.
|
|||||||
|
|
||||||
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
|
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
|
||||||
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
|
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
|
||||||
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir
|
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir wie
|
||||||
wie folgt eine Abbildung
|
folgt eine Abbildung
|
||||||
\[
|
\[
|
||||||
\begin{matrix}
|
\begin{matrix}
|
||||||
m_{ab} : & Λ^a V ⨯ Λ^b V & → & Λ^{a+b} V \\
|
m_{ab} : & Λ^a V ⨯ Λ^b V & → & Λ^{a+b} V \\
|
||||||
@ -252,7 +246,7 @@ und
|
|||||||
& (λ,ν) & ↦ & λ·ν.
|
& (λ,ν) & ↦ & λ·ν.
|
||||||
\end{matrix}
|
\end{matrix}
|
||||||
\]
|
\]
|
||||||
Diese ``Definitionen'' verwenden die analog die schreckliche
|
Diese „Definitionen“ verwenden die analog die schreckliche
|
||||||
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
|
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
|
||||||
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
||||||
|
|
||||||
@ -275,8 +269,8 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
|||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
|
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
|
||||||
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$
|
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ sobald
|
||||||
sobald $n>\dim V$ ist. Also ist
|
$n>\dim V$ ist. Also ist
|
||||||
\[
|
\[
|
||||||
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
|
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
|
||||||
2^{\dim V}.
|
2^{\dim V}.
|
||||||
@ -290,11 +284,10 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
|||||||
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
|
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
|
||||||
eine Abbildung zwischen den Dachprodukten induziert.
|
eine Abbildung zwischen den Dachprodukten induziert.
|
||||||
|
|
||||||
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}
|
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}%
|
||||||
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
|
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
|
||||||
$n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau
|
$n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau einen
|
||||||
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende
|
Endomorphismus $η : Λ^n V → Λ^n V$, sodass das folgende Diagramm kommutiert,
|
||||||
Diagramm kommutiert,
|
|
||||||
\[
|
\[
|
||||||
\begin{tikzcd}[column sep=2cm]
|
\begin{tikzcd}[column sep=2cm]
|
||||||
V^{⨯ n} \ar[d, "τ"'] \ar[r, "f ⨯ ⋯ ⨯ f"] & V^{⨯ n} \ar[d, "τ"] \\
|
V^{⨯ n} \ar[d, "τ"'] \ar[r, "f ⨯ ⋯ ⨯ f"] & V^{⨯ n} \ar[d, "τ"] \\
|
||||||
@ -304,9 +297,9 @@ eine Abbildung zwischen den Dachprodukten induziert.
|
|||||||
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
|
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Hier ist fast nichts zu zeigen. Die Abbildung
|
Hier ist fast nichts zu zeigen. Die Abbildung $τ◦(f ⨯ ⋯ ⨯ f)$ ist
|
||||||
$τ◦(f ⨯ ⋯ ⨯ f)$ ist alternierend und multilinear. Also
|
alternierend und multilinear. Also existiert die Abbildung $η$ entsprechend
|
||||||
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft.
|
der universellen Eigenschaft.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
@ -321,18 +314,18 @@ Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
|
|||||||
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
|
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
|
||||||
geht's.
|
geht's.
|
||||||
|
|
||||||
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}
|
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}%
|
||||||
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
||||||
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren
|
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren $\vec{v}_1, …,
|
||||||
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das
|
\vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das Dachprodukt $\vec{v}_1
|
||||||
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt.
|
Λ ⋯ Λ \vec{v}_k$ wie folgt.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
|
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
|
||||||
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix
|
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $A :=
|
||||||
$A := (a_{ij}) ∈ \Mat(n⨯ k, k)$.
|
(a_{ij}) ∈ \Mat(n⨯ k, k)$.
|
||||||
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
|
|
||||||
$A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$ die Matrix, die aus den Spalten
|
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei $A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$
|
||||||
$i_1, …,i_k$ der Matrix $A$ besteht.
|
die Matrix, die aus den Spalten $i_1, …,i_k$ der Matrix $A$ besteht.
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
Dann ist
|
Dann ist
|
||||||
\[
|
\[
|
||||||
@ -342,11 +335,9 @@ geht's.
|
|||||||
\]
|
\]
|
||||||
\end{satz}
|
\end{satz}
|
||||||
\begin{proof}
|
\begin{proof}
|
||||||
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt
|
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt ausrechnen, was
|
||||||
ausrechnen, was der Koeffizient von
|
der Koeffizient von $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in $\vec{v}_1 Λ ⋯ Λ
|
||||||
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in
|
\vec{v}_k$. Dazu fällt mir (leider!) nichts Besseres ein, als das Produkt
|
||||||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
|
|
||||||
besseres ein, als das Produkt
|
|
||||||
\[
|
\[
|
||||||
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
|
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
|
||||||
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
|
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
|
||||||
@ -361,7 +352,7 @@ geht's.
|
|||||||
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
|
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
|
||||||
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
|
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
|
||||||
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
|
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
|
||||||
& = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest})
|
& = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}).
|
||||||
\end{align*}
|
\end{align*}
|
||||||
Damit ist der Satz dann wohl bewiesen.
|
Damit ist der Satz dann wohl bewiesen.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
@ -382,12 +373,11 @@ geht's.
|
|||||||
|
|
||||||
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
|
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
|
||||||
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
|
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
|
||||||
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist,
|
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, $n := \dim
|
||||||
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist
|
V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist eine
|
||||||
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung
|
lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung ist
|
||||||
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage:
|
aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: „Was ist
|
||||||
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese
|
$λ$?“ Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage.
|
||||||
Frage.
|
|
||||||
|
|
||||||
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
|
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
|
||||||
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
|
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
|
||||||
@ -398,16 +388,16 @@ Frage.
|
|||||||
\end{kor}
|
\end{kor}
|
||||||
|
|
||||||
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
|
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
|
||||||
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der
|
Determinante. Da Determinanten extrem eng mit dem Begriff „Volumen“ aus der
|
||||||
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
|
Differenzialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
|
||||||
geometrische Aussage.
|
geometrische Aussage.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Die Koeffizienten des charakteristischen Polynoms}
|
\subsection{Die Koeffizienten des charakteristischen Polynoms}
|
||||||
|
|
||||||
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
|
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
|
||||||
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer
|
„Lineare Algebra I“? Dort hatten wir das charakteristische Polynom einer Matrix
|
||||||
Matrix $A ∈ \Mat(n⨯ n,k)$ diskutiert,
|
$A ∈ \Mat(n ⨯ n,k)$ diskutiert,
|
||||||
\[
|
\[
|
||||||
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^n·\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
|
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^n·\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
|
||||||
a_{n-1}(A)·t + a_n(A) \right).
|
a_{n-1}(A)·t + a_n(A) \right).
|
||||||
@ -417,15 +407,15 @@ Wir hatten staunend festgestellt, dass die Funktionen
|
|||||||
a_i : \Mat(n⨯ n, k) → k
|
a_i : \Mat(n⨯ n, k) → k
|
||||||
\]
|
\]
|
||||||
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
|
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
|
||||||
$A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
|
$A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
|
||||||
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
|
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
|
||||||
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass
|
konnten wir nur zwei dieser Zahlen ausrechnen: Wir hatten gesehen, dass
|
||||||
\[
|
\[
|
||||||
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
|
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
|
||||||
\]
|
\]
|
||||||
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
||||||
|
|
||||||
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]
|
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]%
|
||||||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$, es sei $V$ ein $n$-dimensionaler
|
Es sei $k$ ein Körper, es sei $n ∈ ℕ$, es sei $V$ ein $n$-dimensionaler
|
||||||
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
|
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
|
||||||
Polynom von $f$ als
|
Polynom von $f$ als
|
||||||
@ -455,7 +445,7 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
|||||||
\vdots & \ddots \\
|
\vdots & \ddots \\
|
||||||
& & & & a_{(n-1)n}\\
|
& & & & a_{(n-1)n}\\
|
||||||
a_{n1} & ⋯ & & a_{n(n-1)} & a_{nn}-t
|
a_{n1} & ⋯ & & a_{n(n-1)} & a_{nn}-t
|
||||||
\end{pmatrix}
|
\end{pmatrix}.
|
||||||
\]
|
\]
|
||||||
Das charakteristische Polynom ist dann die Determinante von $B$, also
|
Das charakteristische Polynom ist dann die Determinante von $B$, also
|
||||||
\begin{equation}\label{eq:xcydfg}
|
\begin{equation}\label{eq:xcydfg}
|
||||||
@ -492,10 +482,10 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
|||||||
|
|
||||||
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
|
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
|
||||||
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
|
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
|
||||||
wir noch einmal daran, dass die Dachprodukte
|
wir noch einmal daran, dass die Dachprodukte $(\vec{e}_{i_1} Λ ⋯ Λ
|
||||||
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von
|
\vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von $Λ^k V$ bilden. Gegeben
|
||||||
$Λ^k V$ bilden. Gegeben also ein solches Basiselement
|
also ein solches Basiselement $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist
|
||||||
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3}
|
nach Satz~\ref{satz:17-4-3}
|
||||||
\begin{align*}
|
\begin{align*}
|
||||||
(Λ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
|
(Λ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
|
||||||
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k})·\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
|
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k})·\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
|
||||||
@ -513,8 +503,8 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
|||||||
|
|
||||||
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
|
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
|
||||||
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
|
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
|
||||||
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix
|
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix $\widetilde{A}^{i_1, …,
|
||||||
$\widetilde{A}^{i_1, …, i_k}$ ist.
|
i_k}$ ist.
|
||||||
\end{proof}
|
\end{proof}
|
||||||
|
|
||||||
% !TEX root = LineareAlgebra2
|
% !TEX root = LineareAlgebra2
|
||||||
|
118
18-dehn.tex
118
18-dehn.tex
@ -6,33 +6,31 @@
|
|||||||
\marginpar{Vorlesung 24}Auf dem zweiten internationalen Mathematikerkongress im
|
\marginpar{Vorlesung 24}Auf dem zweiten internationalen Mathematikerkongress im
|
||||||
August 1900 in Paris hielt David
|
August 1900 in Paris hielt David
|
||||||
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
|
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
|
||||||
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
|
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
|
||||||
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch
|
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch breit
|
||||||
breit gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste
|
gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste von
|
||||||
von 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag
|
23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag beim
|
||||||
beim Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen
|
Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Probleme
|
||||||
Probleme als äußerst einflussreich für die Entwicklung der Mathematik im
|
als äußerst einflussreich für die Entwicklung der Mathematik im 20.~Jahrhundert.
|
||||||
20.~Jahrhundert.
|
|
||||||
|
|
||||||
|
|
||||||
\section{Hilbert's drittes Problem}
|
\section{Hilbert's drittes Problem}
|
||||||
|
|
||||||
In
|
In
|
||||||
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
|
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
|
||||||
drittem Problem} geht es um folgende Frage: gegeben sind zwei
|
drittem Problem} geht es um folgende Frage: gegeben sind zwei
|
||||||
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
|
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
|
||||||
$ℝ³$. Ich möchte den ersten Polyeder $P_1$ durch gerade Schnitte in ein
|
$ℝ³$. Ich möchte das erste Polyeder $P_1$ durch gerade Schnitte in ein Puzzle
|
||||||
Puzzle zerlegen, aus dem sich der zweite Polyeder $P_2$ zusammensetzen lässt.
|
zerlegen, aus dem sich das zweite Polyeder $P_2$ zusammensetzen lässt. Kann ich
|
||||||
Kann ich entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die
|
entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die Polyeder
|
||||||
Polyeder $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit}
|
$P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} sind.
|
||||||
sind.
|
|
||||||
|
|
||||||
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
|
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
|
||||||
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
|
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
|
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
|
||||||
die Antwort ``Nein!''
|
die Antwort „Nein!“
|
||||||
\end{beobachtung}
|
\end{beobachtung}
|
||||||
|
|
||||||
\begin{notation}
|
\begin{notation}
|
||||||
@ -48,23 +46,23 @@ werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
|
|||||||
|
|
||||||
Schauen Sie zum Thema Invarianten einmal in
|
Schauen Sie zum Thema Invarianten einmal in
|
||||||
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
|
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
|
||||||
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen
|
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen haben,
|
||||||
haben, können sie nicht zerlegungsgleich sein. Invarianten können uns also
|
können sie nicht zerlegungsgleich sein. Invarianten können uns also helfen, für
|
||||||
helfen, für gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf
|
gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf Hilbert's Frage zu
|
||||||
Hilbert's Frage zu geben.
|
geben.
|
||||||
|
|
||||||
|
|
||||||
\section{Die Dehn-Invariante}
|
\section{Die Dehn-Invariante}
|
||||||
|
|
||||||
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
|
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
|
||||||
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
|
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
|
||||||
``Volumen'' ist also nicht fein genug um Hilbert's Frage vollständig zu
|
„Volumen“ ist also nicht fein genug um Hilbert's Frage vollständig zu
|
||||||
beantworten. Aus diesem Grund konstruierte Max
|
beantworten. Aus diesem Grund konstruierte Max
|
||||||
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
|
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
|
||||||
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
|
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
|
||||||
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
|
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
|
||||||
Anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
|
anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
|
||||||
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
|
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
|
||||||
offensichtlich ist, wie das Volumen. Die
|
offensichtlich ist, wie das Volumen. Die
|
||||||
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
|
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
|
||||||
\[
|
\[
|
||||||
@ -87,10 +85,10 @@ $ℚ$. Elemente sind zum Beispiel die Zahlen $1$, $\sqrt{2}$ oder die Kreiszahl
|
|||||||
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
|
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
|
||||||
|
|
||||||
\begin{bemerkung}
|
\begin{bemerkung}
|
||||||
Um mit dem $ℚ$-Vektorraum $ℝ$ warm zu werden, fragen wir: ist die Menge
|
Um mit dem $ℚ$-Vektorraum $ℝ$ warmzuwerden, fragen wir: ist die Menge $\{ 1,
|
||||||
$\{ 1, \sqrt{2}\}$ $ℚ$-linear unabhängig? Die Antwort ist ``Nein!'' Denn
|
\sqrt{2}\}$ $ℚ$-linear unabhängig? Die Antwort ist „Nein!“, denn falls es
|
||||||
falls es zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale
|
zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale $ℚ$-lineare
|
||||||
$ℚ$-lineare Relation gäbe,
|
Relation gäbe,
|
||||||
\[
|
\[
|
||||||
p · 1 + q · \sqrt{2} = 0,
|
p · 1 + q · \sqrt{2} = 0,
|
||||||
\]
|
\]
|
||||||
@ -98,10 +96,10 @@ $π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
|
|||||||
aber schon, dass $\sqrt{2}$ irrational ist.
|
aber schon, dass $\sqrt{2}$ irrational ist.
|
||||||
\end{bemerkung}
|
\end{bemerkung}
|
||||||
|
|
||||||
Um jetzt den $ℚ$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl
|
Um jetzt den $ℚ$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl $π$
|
||||||
$π$ erzeugten $ℚ$-Untervektorraum $\langle π \rangle ⊂ ℝ$. Weiter
|
erzeugten $ℚ$-Untervektorraum $\langle π \rangle ⊂ ℝ$. Weiter betrachten wir
|
||||||
betrachten wir den Quotientenvektorraum $\factor{ℝ}{\langle π \rangle}$. Der
|
den Quotientenvektorraum $\factor{ℝ}{\langle π \rangle}$. Der Vektorraum $V$
|
||||||
Vektorraum $V$ von Max Dehn ist dann gleich dem Tensorprodukt,
|
von Max Dehn ist dann gleich dem Tensorprodukt,
|
||||||
\[
|
\[
|
||||||
V = ℝ ⊗ \left(\factor{ℝ}{\langle π \rangle}\right).
|
V = ℝ ⊗ \left(\factor{ℝ}{\langle π \rangle}\right).
|
||||||
\]
|
\]
|
||||||
@ -110,20 +108,20 @@ Dies ist ein Tensorprodukt von $ℚ$-Vektorräumen, also selbst ein $ℚ$-Vektor
|
|||||||
|
|
||||||
\subsection{Konstruktion der Invariante}
|
\subsection{Konstruktion der Invariante}
|
||||||
|
|
||||||
Als nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
|
Als Nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
|
||||||
konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des
|
konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des
|
||||||
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
|
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
|
||||||
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
|
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
|
||||||
$ℓ(E_1)$, …, $ℓ(E_n)$; dies sind positive reelle Zahlen. An jeder Kante
|
$ℓ(E_1)$, …, $ℓ(E_n)$; dies sind positive reelle Zahlen. An jeder Kante kommen
|
||||||
kommen zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
|
zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
|
||||||
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
|
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
|
||||||
Bogenmaß. Nach diesen Vorbereitung definieren wir das die Dehn-Invariante von
|
Bogenmaß. Nach diesen Vorbereitungen definieren wir das die Dehn-Invariante von
|
||||||
$P$ schließlich als
|
$P$ schließlich als
|
||||||
\[
|
\[
|
||||||
\operatorname{dehn}(P) := \sum_{k=1}^{n} ℓ(E_k) ⊗ α (E_k).
|
\operatorname{dehn}(P) := \sum_{k=1}^{n} ℓ(E_k) ⊗ α (E_k).
|
||||||
\]
|
\]
|
||||||
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante
|
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante definiert.
|
||||||
definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
||||||
|
|
||||||
\begin{beobachtung}
|
\begin{beobachtung}
|
||||||
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
|
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
|
||||||
@ -228,7 +226,7 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
|||||||
\item Kanten, die vollständig in $P_1$ oder in $P_2$ liegen (in der Abbildung grün).
|
\item Kanten, die vollständig in $P_1$ oder in $P_2$ liegen (in der Abbildung grün).
|
||||||
|
|
||||||
\item Kanten, die bei der Zerlegung von $P$ zerschnitten werden (in der
|
\item Kanten, die bei der Zerlegung von $P$ zerschnitten werden (in der
|
||||||
Abbildung schwarz).
|
Abbildung schwarz).
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
Nach Umnummerierung können wir ohne Einschränkung der Allgemeinheit annehmen,
|
Nach Umnummerierung können wir ohne Einschränkung der Allgemeinheit annehmen,
|
||||||
dass die Kanten $E_1$, …, $E_b$ grün und dass die Kanten $E_{b+1}$, …, $E_n$
|
dass die Kanten $E_1$, …, $E_b$ grün und dass die Kanten $E_{b+1}$, …, $E_n$
|
||||||
@ -236,34 +234,34 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
|
|||||||
gibt es drei unterschiedliche Arten von Kanten.
|
gibt es drei unterschiedliche Arten von Kanten.
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
|
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
|
||||||
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
|
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
|
||||||
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$
|
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten
|
||||||
Kanten des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$
|
des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ und
|
||||||
und $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
|
$α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
|
||||||
bezeichnen, dann gelten die Gleichungen
|
bezeichnen, dann gelten die Gleichungen
|
||||||
\begin{equation}
|
\begin{equation}
|
||||||
\begin{matrix}
|
\begin{matrix}
|
||||||
α(E_1) = α¹(E_1) & … & α(E_a) = α¹(E_a) \\
|
α(E_1) = α¹(E_1) & … & α(E_a) = α¹(E_a) \\
|
||||||
α(E_{a+1}) = α²(E_{a+1}) & … & α(E_b) = α²(E_b)
|
α(E_{a+1}) = α²(E_{a+1}) & … & α(E_b) = α²(E_b)
|
||||||
\end{matrix}
|
\end{matrix}
|
||||||
\end{equation}
|
\end{equation}
|
||||||
|
|
||||||
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
|
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
|
||||||
Kante $E_{•}$ mit $E¹_{•}$ und $E²_{•}$ bezeichnen, dann
|
Kante $E_{•}$ mit $E¹_{•}$ und $E²_{•}$ bezeichnen, dann gilt für die Längen
|
||||||
gilt für die Längen und für die Winkel
|
und für die Winkel
|
||||||
\begin{equation}
|
\begin{equation}
|
||||||
\begin{aligned}
|
\begin{aligned}
|
||||||
ℓ(E_{•}) & = ℓ¹(E¹_{•}) + ℓ²(E²_{•}) \\
|
ℓ(E_{•}) & = ℓ¹(E¹_{•}) + ℓ²(E²_{•}) \\
|
||||||
α(E_{•}) & = α¹(E¹_{•}) = α²(E²_{•})
|
α(E_{•}) & = α¹(E¹_{•}) = α²(E²_{•}).
|
||||||
\end{aligned}
|
\end{aligned}
|
||||||
\end{equation}
|
\end{equation}
|
||||||
|
|
||||||
\item Schließlich gibt es noch Kanten, die durch das Zerlegen neu
|
\item Schließlich gibt es noch Kanten, die durch das Zerlegen neu
|
||||||
hinzugekommen sind. Eine solche Kante tritt immer zwei mal auf: ein mal in
|
hinzugekommen sind. Eine solche Kante tritt immer zweimal auf: einmal in
|
||||||
$P_1$ und ein mal in $P_2$. Wir bezeichnen diese Kanten mit $E¹_{n+1}$,
|
$P_1$ und einmal in $P_2$. Wir bezeichnen diese Kanten mit $E¹_{n+1}$,
|
||||||
$E²_{n+1}$, …, $E¹_m$, $E²_m$. Es gilt für jeden Index $i > n$
|
$E²_{n+1}$, …, $E¹_m$, $E²_m$. Es gilt für jeden Index $i > n$
|
||||||
\begin{equation}
|
\begin{equation}
|
||||||
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π
|
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π.
|
||||||
\end{equation}
|
\end{equation}
|
||||||
\end{itemize}
|
\end{itemize}
|
||||||
Mit diesen Bezeichnungen ist
|
Mit diesen Bezeichnungen ist
|
||||||
|
Loading…
x
Reference in New Issue
Block a user