This commit is contained in:
Stefan Kebekus 2025-07-02 10:51:46 +02:00
parent ed0e972443
commit 4b1c86c1ea
7 changed files with 262 additions and 259 deletions

View File

@ -97,3 +97,13 @@ Kronecker-Produkt
Kronecker Kronecker
Tensorprodukträume Tensorprodukträume
Tensorproduktkonstruktion Tensorproduktkonstruktion
Tensorproduktabbildung
Multiplikationsabbildung
Permutationsgruppe
Erzeugendensystemen
auszumultiplizieren
inner-mathematischen
zerlegungsgleich
Zerlegungsgleichheit
Invarianteneigenschaft
Quotientenvektorraum

View File

@ -64,3 +64,16 @@
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"} {"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWorum geht es?.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin Tensorprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDeshalb liefert uns die universelle Eigenschaft aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und ein kommutatives Diagramm wie folgt, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVielleicht sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, so dass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert ein \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QAlso ist \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qbinomi \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QErinnern Sie sich an die letzten Vorlesungen von „Lineare Algebra I“?\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q…und was kann ich jetzt damit machen?.\\E$"}

View File

@ -26,7 +26,7 @@ direkte Summe,
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
mehr Komponenten. Ich erhalte so Vektorräume mehr Komponenten. Ich erhalte so Vektorräume
\[ \[
V V V \quad\text{oder}\quad \underbrace{V V}_{n } V V V \quad\text{oder}\quad \underbrace{V V}_{n }.
\] \]
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
verallgemeinern. verallgemeinern.
@ -70,12 +70,12 @@ gibt, die auch unterschiedliche Ergebnisse liefern.
\begin{bemerkung} \begin{bemerkung}
In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von
$V^i$ auch als Abbildungen $I → V$ auffassen. $V^I$ auch als Abbildungen $I → V$ auffassen.
\end{bemerkung} \end{bemerkung}
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}% \begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}%
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$ Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
ist, nennt man $k^I$ auch den \emph{von der Menge $I$ frei erzeugten ist, nennt man $k^{(I)}$ auch den \emph{von der Menge $I$ frei erzeugten
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$, Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
betrachte den Vektor betrachte den Vektor
\[ \[

View File

@ -9,7 +9,7 @@
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$ Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
es ist, dass all bilinearen Abbildungen von $UV → W$ ``von $U⊗V$ kommen'', und es ist, dass all bilinearen Abbildungen von $U V → W$ „von $U⊗V$ kommen“, und
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise. präzise.
@ -19,12 +19,12 @@ präzise.
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist \emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U V → T$, ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U V → T$,
sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U V → sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U V →
W$ gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende W$ gibt es genau eine lineare Abbildung $η: T → W$, sodass das folgende
Diagramm kommutiert: Diagramm kommutiert:
\[ \[
\begin{tikzcd}[column sep=2cm] \begin{tikzcd}[column sep=2cm]
UV \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\ U V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
UV \ar[r, "s\text{, bilinear}"'] & W . U V \ar[r, "s\text{, bilinear}"'] & W .
\end{tikzcd} \end{tikzcd}
\] \]
\end{defn} \end{defn}
@ -32,10 +32,10 @@ präzise.
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie. überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2} \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}%
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1
seien $τ_1 : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann gibt es
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$. einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
\video{21-1} \video{21-1}
@ -43,9 +43,9 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten. Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3} \begin{satz}[Existenz des Tensorproduktes]\label{satz:15-1-3}%
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann existiert
existiert ein Tensorprodukt. ein Tensorprodukt.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
\video{21-2} \video{21-2}
@ -97,8 +97,8 @@ wissen, ob sie Null sind oder nicht.
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig] \begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
Selbst wenn ein gegebener $\vec{τ} = \vec{u}\vec{v} ∈ U⊗V$ ein reiner Tensor Selbst wenn ein gegebener $\vec{τ} = \vec{u}\vec{v} ∈ U⊗V$ ein reiner Tensor
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig. ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung $τ : U
$τ : UV → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit V → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit
\[ \[
\vec{u}\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v}) \vec{u}\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
\] \]
@ -110,9 +110,8 @@ wissen, ob sie Null sind oder nicht.
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten. Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1\vec{v}_2 =
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ in $V⊗V$ gilt, ebenfalls \vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls überraschend schwer sein.
überraschend schwer sein.
\end{bemerkung} \end{bemerkung}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] \begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
@ -144,17 +143,16 @@ hinschreiben können.
\begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren] \begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren]
Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als
Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung $a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, sodass die folgende Gleichung
gilt, gilt,
\[ \[
\vec{τ} = \sum_i a_i·(\vec{u_i}\vec{v_i}). \vec{τ} = \sum_i a_i·(\vec{u_i}\vec{v_i}).
\] \]
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
Index $i$ die Gleichung Index $i$ die Gleichung $a_(\vec{u_i}\vec{v_i}) =
$a_(\vec{u_i}\vec{v_i}) = (a_\vec{u_i})\vec{v_i}$. Es ist also nicht (a_\vec{u_i})⊗\vec{v_i}$. Es ist also nicht nur richtig, dass ich jeden
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren Tensor als Linearkombination von reinen Tensoren schreiben kann, es gilt
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen sogar, dass ich jeden Tensor als Summe von reinen Tensoren schreiben kann.
Tensoren schreiben kann.
\end{bemerkung} \end{bemerkung}
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7} \begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
@ -233,7 +231,7 @@ Tensorproduktraum erhält.
$(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und $(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und
beachten, dass für jedes Paar $(i,j) ∈ I J$ von Indices die Abbildung beachten, dass für jedes Paar $(i,j) ∈ I J$ von Indices die Abbildung
\[ \[
s_{ij} : UV → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) · s_{ij} : U V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
\vec{v}^{\:*}_i(\vec{v}) \vec{v}^{\:*}_i(\vec{v})
\] \]
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also

View File

@ -4,7 +4,7 @@
\chapter{Tensorprodukte mit mehreren Faktoren} \chapter{Tensorprodukte mit mehreren Faktoren}
\label{sec:tAlg} \label{sec:tAlg}
\sideremark{Vorlesung 22}Das laufende Kapitel heißt ``Multilineare Algebra'', \sideremark{Vorlesung 22}Das laufende Kapitel heißt „Multilineare Algebra“,
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
@ -17,12 +17,12 @@ nennen.
\section{Definition, Existenz und Eindeutigkeit} \section{Definition, Existenz und Eindeutigkeit}
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
Begriff ``bilineare Abbildung''. Um das Tensorprodukt auch für eine größere Begriff „bilineare Abbildung“. Um das Tensorprodukt auch für eine größere Zahl
Zahl von Faktoren zu definieren, betrachten wir ganz analog ``multilineare von Faktoren zu definieren, betrachten wir ganz analog multilineare
Abbildungen''. Abbildungen.
\begin{defn}[Multilineare Abbildungen] \begin{defn}[Multilineare Abbildungen]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien seien $W$ und $V_1, …, V_n$ Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $W$ und $V_1, …, V_n$
jeweils $k$-Vektorräume. Eine Abbildung jeweils $k$-Vektorräume. Eine Abbildung
\[ \[
s: V_1 V_2 V_n → W s: V_1 V_2 V_n → W
@ -36,17 +36,16 @@ Abbildungen''.
\end{multline*} \end{multline*}
\end{defn} \end{defn}
Mit diesem Begriff von ``Multilinearform'' können wir jetzt ganz allgemein Mit diesem Begriff von „Multilinearform“ können wir jetzt ganz allgemein
Tensorprodukte von mehr als zwei Vektorräumen definieren. Tensorprodukte von mehr als zwei Vektorräumen definieren.
\begin{defn}[Tensorprodukt]\label{def:16-1-2} \begin{defn}[Tensorprodukt]\label{def:16-1-2}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Ein \emph{Tensorprodukt von V_n$ gegeben. Ein \emph{Tensorprodukt von $V_1, …,
$V_1, …, V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein Vektorraum $T$
Vektorraum $T$ zusammen mit einer multilinearen Abbildung zusammen mit einer multilinearen Abbildung $τ: V_1 V_n → T$, sodass für
$τ: V_1 V_n → T$, so dass für alle multilinearen Abbildungen alle multilinearen Abbildungen $s: V_1 V_n → W$ genau eine lineare
$s: V_1 V_n → W$ genau eine lineare Abbildung $η: T → W$ existiert, so Abbildung $η: T → W$ existiert, sodass das folgende Diagramm kommutiert
dass das folgende Diagramm kommutiert
\[ \[
\begin{tikzcd}[column sep=2cm] \begin{tikzcd}[column sep=2cm]
V_1 V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\ V_1 V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
@ -58,57 +57,55 @@ Tensorprodukte von mehr als zwei Vektorräumen definieren.
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des Tensorprodukts. Existenz und Eindeutigkeit des Tensorprodukts.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3} \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Weiter seien $τ_1 : V_1 V_n → T_1$ und V_n$ gegeben. Weiter seien $τ_1 : V_1 V_n → T_1$ und $τ_1 : V_1
$τ_1 : V_1 V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus
kanonischen Isomorphismus $T_1 ≅ T_2$. \qed $T_1 ≅ T_2$. \qed
\end{satz} \end{satz}
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4} \begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
\end{satz} \end{satz}
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren] \begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
wir die Sprache, sprechen von ``dem Tensorprodukt'' und schreiben Sprache, sprechen von „dem Tensorprodukt“ und schreiben
\[ \[
τ : V_1 V_n → V_1 ⊗ ⋯ ⊗ V_n. τ : V_1 V_n → V_1 ⊗ ⋯ ⊗ V_n.
\] \]
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1
$\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als \emph{rein}\index{Reine
\emph{rein}\index{Reine Tensoren}. Tensoren}.
\end{notation} \end{notation}
\begin{notation}[Mehrfache Produkte] \begin{notation}[Mehrfache Produkte]
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz $V^{
$V^{⊗ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ definieren wir
definieren wir zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen Vektoren $\vec{v}
Vektoren $\vec{v} ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt $\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
$\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
\end{notation} \end{notation}
\section{Assoziativität} \section{Assoziativität}
Zusätzlich zu ``Existenz'' und ``Eindeutigkeit'' gibt es beim Tensorprodukt mit Zusätzlich zu „Existenz“ und „Eindeutigkeit“ gibt es beim Tensorprodukt mit
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist: mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
die Assoziativität. Der folgende Satz klärt alles. die Assoziativität. Der folgende Satz klärt alles.
\begin{satz}[Assoziativität des Tensorproduktes] \begin{satz}[Assoziativität des Tensorproduktes]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
$V_1, …, V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die Vektorräume
Vektorräume
\[ \[
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
\] \]
kanonisch isomorph. kanonisch isomorph.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
Ich gebe keinen vollen Beweis sondern diskutiere nur die Idee. Sie sollten an Ich gebe keinen vollen Beweis, sondern diskutiere nur die Idee. Sie sollten
dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus an dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben. aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
Betrachten Sie die Abbildung Betrachten Sie die Abbildung
\[ \[
@ -144,10 +141,10 @@ jeweils ohne Beweis die wesentlichen Punkte auf.
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$. Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine \item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
lexikographisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$. lexikografisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Falls alle $V_{}$ endlich-dimensional sind, dann ist \item Falls alle $V_{}$ endlich-dimensional sind, dann ist $\dim V_1 ⊗ ⋯ ⊗ V_n
$\dim V_1 ⊗ ⋯ ⊗ V_n = \prod_i \dim V_i$ = \prod_i \dim V_i$.
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen \item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
zwischen den Tensorprodukten. zwischen den Tensorprodukten.
@ -193,13 +190,12 @@ und
& (λ,ν) && λ·ν. & (λ,ν) && λ·ν.
\end{matrix} \end{matrix}
\] \]
Diese ``Definitionen'' verwenden die schreckliche Notation~\ref{15-2-7}. Diese „Definitionen“ verwenden die schreckliche Notation~\ref{15-2-7}. Schauen
Schauen Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe nach, dass
nach, dass die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu zeigen? Die
zeigen? Die Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Multiplikationsabbildung. Der
Multiplikationsabbildung. Der relevante Begriff ist der einer $k$-Algebra: dies relevante Begriff ist der einer $k$-Algebra: Dies ist ein Vektorraum, der um
ist ein Vektorraum, der um eine mit der Vektorraumstruktur verträgliche eine mit der Vektorraumstruktur verträgliche Multiplikation erweitert wurde.
Multiplikation erweitert wurde.
\begin{defn}[Algebra über einem Körper] \begin{defn}[Algebra über einem Körper]
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
@ -211,20 +207,18 @@ Multiplikation erweitert wurde.
Zusätzlich: Zusätzlich:
\begin{itemize} \begin{itemize}
\item Die Algebra heißt \emph{kommutativ}\index{kommutative \item Die Algebra heißt \emph{kommutativ}\index{kommutative
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$, Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_2 ∈ V$ die Gleichheit $m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2,
$m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, \vec{v}_1)$ gilt. \vec{v}_1)$ gilt.
\item Die Algebra heißt \emph{assoziativ}\index{assoziative \item Die Algebra heißt \emph{assoziativ}\index{assoziative
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$, Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $m\bigl(\vec{v}_1, m(\vec{v}_2,
$m\bigl(\vec{v}_1, m(\vec{v}_2, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_2), \vec{v}_3 \bigr)$ gilt.
\vec{v}_2), \vec{v}_3 \bigr)$ gilt.
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins}, \item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
falls es ein Element $\vec{e} ∈ V$ gibt, so dass für alle Vektoren falls es ein Element $\vec{e} ∈ V$ gibt, sodass für alle Vektoren $\vec{v}
$\vec{v} ∈ V$ die Gleichheit V$ die Gleichheit $m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
$m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
\end{itemize} \end{itemize}
\end{defn} \end{defn}
@ -244,8 +238,8 @@ Beispiele für Algebren kennen Sie schon.
\end{bsp} \end{bsp}
\begin{bsp}[Matrizen] \begin{bsp}[Matrizen]
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n n, k)$, Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n n, k)$,
der Vektorraum der $(n n)$-Matrizen. Die Abbildung $m$ sei die der Vektorraum der $(n n)$-Matrizen. Die Abbildung $m$ sei die
Matrixmultiplikation. Diese Algebra ist nicht kommutativ, aber assoziativ und Matrixmultiplikation. Diese Algebra ist nicht kommutativ, aber assoziativ und
besitzt eine Eins. besitzt eine Eins.
\end{bsp} \end{bsp}

View File

@ -5,37 +5,37 @@
\label{sec:wedge} \label{sec:wedge}
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf in der Differenzialgeometrie schrecklich wichtig ist: Die äußere Algebra. Auf
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genauso
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der Schein
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten? sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?
\section{Definition, Existenz und Eindeutigkeit} \section{Definition, Existenz und Eindeutigkeit}
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau Die äußere Algebra und das äußere Produkt (auch „Dachprodukt“) ist fast genau so
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige Unterschied
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche ist, dass wir uns bei den multilinearen Abbildungen auf solche Abbildungen
Abbildungen beschränken, die alternierend sind. beschränken, die alternierend sind.
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1} \begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}%
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei $n
$n $ eine Zahl. Eine multilineare Abbildung $ eine Zahl. Eine multilineare Abbildung
\[ \[
s : \underbrace{V V}_{n } → W s : \underbrace{V V}_{n } → W
\] \]
heißt \emph{alternierend}\index{alternierende multilineare heißt \emph{alternierend}\index{alternierende multilineare
Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung
\begin{equation}\label{eq:dfjgh} \begin{equation}\label{eq:dfjgh}
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
\end{equation} \end{equation}
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt Vektor mal auftritt. Formell: die multilineare Abbildung $s$ heißt
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel alternierend falls die Gleichung~\eqref{eq:dfjgh} für jedes Tupel $(\vec{v}_1,
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei …, \vec{v}_n)$ von Vektoren gilt, für das es zwei unterschiedliche Indizes $i
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$. \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
\end{defn} \end{defn}
\begin{beobachtung} \begin{beobachtung}
@ -56,7 +56,7 @@ Abbildungen beschränken, die alternierend sind.
\begin{prov} \begin{prov}
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
``alternierende Multilineare Abbildung'' nehmen? „alternierende Multilineare Abbildung“ nehmen?
\end{prov} \end{prov}
\begin{notation}[Produkte] \begin{notation}[Produkte]
@ -68,9 +68,9 @@ Abbildungen beschränken, die alternierend sind.
\begin{bsp}[Determinante] \begin{bsp}[Determinante]
Es sei $k$ ein Körper und es sei $n ∈ $ eine Zahl. Betrachte Matrizen als Es sei $k$ ein Körper und es sei $n ∈ $ eine Zahl. Betrachte Matrizen als
Tupel von Spaltenvektoren und identifiziere so den Vektorraum Tupel von Spaltenvektoren und identifiziere so den Vektorraum $\Mat(n n, k)$
$\Mat(n n, k)$ der $(n n)$-Matrizen mit dem Vektorraum der $(n n)$-Matrizen mit dem Vektorraum $k^n k^n$. Dann ist die
$k^n k^n$. Dann ist die Determinantenabbildung Determinantenabbildung
\[ \[
\det : k^n k^n → k \det : k^n k^n → k
\] \]
@ -79,20 +79,20 @@ Abbildungen beschränken, die alternierend sind.
\begin{bsp}[Kreuzprodukt] \begin{bsp}[Kreuzprodukt]
Das von Physiker geliebte Das von Physiker geliebte
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem \href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem $ℝ³$}
$ℝ³$} ist eine alternierende multilineare Abbildung. ist eine alternierende multilineare Abbildung.
\end{bsp} \end{bsp}
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
Vektorräumen definieren. Vektorräumen definieren.
\begin{defn}[Äußeres Produkt]\label{def:17-1-4} \begin{defn}[Äußeres Produkt]\label{def:17-1-4} Es sei $k$ ein Körper, es sei $n
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$ $ und es sei ein $k$-Vektorraum $V$ gegeben. Ein \emph{$n$.tes äußeres
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder Produkt}\index{äußeres Produkt} oder \emph{$n$.tes
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ zusammen mit
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, so einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, sodass für alle
dass für alle multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare Abbildung $η: T →
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert W$ existiert, sodass das folgende Diagramm kommutiert
\[ \[
\begin{tikzcd}[column sep=4cm] \begin{tikzcd}[column sep=4cm]
V^{ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\ V^{ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
@ -104,45 +104,42 @@ Vektorräumen definieren.
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des äußeren Produktes. Existenz und Eindeutigkeit des äußeren Produktes.
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6} \begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$ Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Weiter seien $τ_1 : V^{n} → T_1$ und $τ_1 : V^{n} → T_2$ zwei gegeben. Weiter seien $τ_1 : V^{n} → T_1$ und $τ_1 : V^{n} → T_2$ zwei
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $T_1
$T_1 ≅ T_2$. \qed T_2$. \qed
\end{satz} \end{satz}
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9} \begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$ Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
\end{satz} \end{satz}
\begin{notation}[Notation rund um äußere Produkte] \begin{notation}[Notation rund um äußere Produkte]%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$ Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben Sprache, sprechen von „dem $n$.ten äußeren Produkt“ und schreiben
\[ \[
τ : V^{n}\bigwedge^n V. τ : V^{n}\bigwedge^n V.
\] \]
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben die
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von bezeichnen diese Elemente von $Λ^n V$ als \emph{rein}. Etwas
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von umgangssprachlich spricht man von \emph{reinen Dächern}\index{reine Dächer}.
\emph{reinen Dächern}\index{reine Dächer}.
\end{notation} \end{notation}
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11} \begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}%
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber jedes
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Dächern
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß Definition~\ref{def:17-1-1} die
Definition~\ref{def:17-1-1} die folgenden Regeln. folgenden Regeln.
\begin{itemize} \begin{itemize}
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit \item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit $\vec{v}_i =
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gleich $\vec{0}_{Λ^n V}$.
gleich $\vec{0}_{Λ^n V}$.
\item Für jede Permutation $ρ ∈ S_n$ ist \item Für jede Permutation $ρ ∈ S_n$ ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n =
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯ \sgn(ρ\vec{v}_{ρ(1)} Λ ⋯ Λ \vec{v}_{ρ(n)}$.
Λ \vec{v}_{ρ(n)}$.
\end{itemize} \end{itemize}
\end{beobachtung} \end{beobachtung}
@ -163,9 +160,8 @@ Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
\end{beobachtung} \end{beobachtung}
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa $\{ \vec{e}_1, \vec{e}_2\}
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine ℝ²$ die Einheitsbasis ist, dann ist eine Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
Basis von $(ℝ²)^{2}$ durch die Menge
\[ \[
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2 \{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
\vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2} \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
@ -184,14 +180,12 @@ Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet. verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen Normalerweise würde ich an dieser Stelle einen sehr ausführlichen Beweis geben.
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …) In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf.
verzichte ich darauf.
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2} \begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}%
In der Situation von Definition~\ref{def:17-1-4} sei In der Situation von Definition~\ref{def:17-1-4} sei $E = \{ \vec{v}_1, …,
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann ist die Menge
ist die Menge
\[ \[
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \} \{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
\] \]
@ -199,7 +193,7 @@ verzichte ich darauf.
\end{satz} \end{satz}
\begin{bemerkung} \begin{bemerkung}
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikografisch anordnen
sollte! sollte!
\end{bemerkung} \end{bemerkung}
@ -223,8 +217,8 @@ verzichte ich darauf.
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2} Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir $k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir wie
wie folgt eine Abbildung folgt eine Abbildung
\[ \[
\begin{matrix} \begin{matrix}
m_{ab} : & Λ^a V Λ^b V && Λ^{a+b} V \\ m_{ab} : & Λ^a V Λ^b V && Λ^{a+b} V \\
@ -252,7 +246,7 @@ und
& (λ,ν) && λ·ν. & (λ,ν) && λ·ν.
\end{matrix} \end{matrix}
\] \]
Diese ``Definitionen'' verwenden die analog die schreckliche Diese „Definitionen“ verwenden die analog die schreckliche
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
wohldefiniert ist! Jetzt definieren wir die äußere Algebra. wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
@ -275,8 +269,8 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
\begin{bemerkung} \begin{bemerkung}
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ sobald
sobald $n>\dim V$ ist. Also ist $n>\dim V$ ist. Also ist
\[ \[
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=} \dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
2^{\dim V}. 2^{\dim V}.
@ -290,11 +284,10 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
eine Abbildung zwischen den Dachprodukten induziert. eine Abbildung zwischen den Dachprodukten induziert.
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva} \begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}%
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
$n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau $n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau einen
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende Endomorphismus $η : Λ^n V → Λ^n V$, sodass das folgende Diagramm kommutiert,
Diagramm kommutiert,
\[ \[
\begin{tikzcd}[column sep=2cm] \begin{tikzcd}[column sep=2cm]
V^{ n} \ar[d, "τ"'] \ar[r, "f f"] & V^{ n} \ar[d, "τ"] \\ V^{ n} \ar[d, "τ"'] \ar[r, "f f"] & V^{ n} \ar[d, "τ"] \\
@ -304,9 +297,9 @@ eine Abbildung zwischen den Dachprodukten induziert.
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet. Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
Hier ist fast nichts zu zeigen. Die Abbildung Hier ist fast nichts zu zeigen. Die Abbildung $τ◦(f f)$ ist
$τ◦(f f)$ ist alternierend und multilinear. Also alternierend und multilinear. Also existiert die Abbildung $η$ entsprechend
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft. der universellen Eigenschaft.
\end{proof} \end{proof}
\begin{bemerkung} \begin{bemerkung}
@ -321,18 +314,18 @@ Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
geht's. geht's.
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3} \begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}%
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum, Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren $\vec{v}_1, …,
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das Dachprodukt $\vec{v}_1
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt. Λ ⋯ Λ \vec{v}_k$ wie folgt.
\begin{itemize} \begin{itemize}
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten, \item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $A :=
$A := (a_{ij})\Mat(n k, k)$. (a_{ij}) ∈ \Mat(n k, k)$.
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
$A_{i_1, …,i_k}\Mat(k k, k)$ die Matrix, die aus den Spalten \item Gegeben Indizes $i_1 < ⋯ < i_k$, sei $A_{i_1, …,i_k}\Mat(k k, k)$
$i_1, …,i_k$ der Matrix $A$ besteht. die Matrix, die aus den Spalten $i_1, …,i_k$ der Matrix $A$ besteht.
\end{itemize} \end{itemize}
Dann ist Dann ist
\[ \[
@ -342,11 +335,9 @@ geht's.
\] \]
\end{satz} \end{satz}
\begin{proof} \begin{proof}
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt ausrechnen, was
ausrechnen, was der Koeffizient von der Koeffizient von $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in $\vec{v}_1 Λ ⋯ Λ
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in \vec{v}_k$. Dazu fällt mir (leider!) nichts Besseres ein, als das Produkt
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
besseres ein, als das Produkt
\[ \[
\vec{v}_1 Λ ⋯ Λ \vec{v}_k % \vec{v}_1 Λ ⋯ Λ \vec{v}_k %
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n = \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
@ -361,7 +352,7 @@ geht's.
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\ & = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\ & = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\ & = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
& = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) & = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}).
\end{align*} \end{align*}
Damit ist der Satz dann wohl bewiesen. Damit ist der Satz dann wohl bewiesen.
\end{proof} \end{proof}
@ -382,12 +373,11 @@ geht's.
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, $n := \dim
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist eine
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung ist
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: „Was ist
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese $λ$?“ Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage.
Frage.
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1} \begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
@ -398,16 +388,16 @@ Frage.
\end{kor} \end{kor}
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der Determinante. Da Determinanten extrem eng mit dem Begriff „Volumen“ aus der
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als Differenzialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
geometrische Aussage. geometrische Aussage.
\subsection{Die Koeffizienten des charakteristischen Polynoms} \subsection{Die Koeffizienten des charakteristischen Polynoms}
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer „Lineare Algebra I“? Dort hatten wir das charakteristische Polynom einer Matrix
Matrix $A ∈ \Mat(n n,k)$ diskutiert, $A ∈ \Mat(n n,k)$ diskutiert,
\[ \[
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^\left(t^n+a_1(A)·t^{n-1}+ ⋯ + χ_A(t) = \det\left(A-t·\Id \right) = (-1)^\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
a_{n-1}(A)·t + a_n(A) \right). a_{n-1}(A)·t + a_n(A) \right).
@ -417,15 +407,15 @@ Wir hatten staunend festgestellt, dass die Funktionen
a_i : \Mat(n n, k) → k a_i : \Mat(n n, k) → k
\] \]
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
$A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und $A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass konnten wir nur zwei dieser Zahlen ausrechnen: Wir hatten gesehen, dass
\[ \[
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A) a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
\] \]
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen! ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms] \begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]%
Es sei $k$ ein Körper, es sei $n ∈ $, es sei $V$ ein $n$-dimensionaler Es sei $k$ ein Körper, es sei $n ∈ $, es sei $V$ ein $n$-dimensionaler
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische $k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
Polynom von $f$ als Polynom von $f$ als
@ -455,7 +445,7 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\vdots & \ddots \\ \vdots & \ddots \\
& & & & a_{(n-1)n}\\ & & & & a_{(n-1)n}\\
a_{n1} && & a_{n(n-1)} & a_{nn}-t a_{n1} && & a_{n(n-1)} & a_{nn}-t
\end{pmatrix} \end{pmatrix}.
\] \]
Das charakteristische Polynom ist dann die Determinante von $B$, also Das charakteristische Polynom ist dann die Determinante von $B$, also
\begin{equation}\label{eq:xcydfg} \begin{equation}\label{eq:xcydfg}
@ -492,10 +482,10 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der \noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
wir noch einmal daran, dass die Dachprodukte wir noch einmal daran, dass die Dachprodukte $(\vec{e}_{i_1} Λ ⋯ Λ
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von $Λ^k V$ bilden. Gegeben
$Λ^k V$ bilden. Gegeben also ein solches Basiselement also ein solches Basiselement $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3} nach Satz~\ref{satz:17-4-3}
\begin{align*} \begin{align*}
^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\ ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k}\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\ & = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k}\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
@ -513,8 +503,8 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche \noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$ \eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix aus Satz~\ref{satz:17-4-3} genau gleich der Matrix $\widetilde{A}^{i_1, …,
$\widetilde{A}^{i_1, …, i_k}$ ist. i_k}$ ist.
\end{proof} \end{proof}
% !TEX root = LineareAlgebra2 % !TEX root = LineareAlgebra2

View File

@ -6,33 +6,31 @@
\marginpar{Vorlesung 24}Auf dem zweiten internationalen Mathematikerkongress im \marginpar{Vorlesung 24}Auf dem zweiten internationalen Mathematikerkongress im
August 1900 in Paris hielt David August 1900 in Paris hielt David
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen) Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch breit
breit gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste von
von 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag beim
beim Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Probleme
Probleme als äußerst einflussreich für die Entwicklung der Mathematik im als äußerst einflussreich für die Entwicklung der Mathematik im 20.~Jahrhundert.
20.~Jahrhundert.
\section{Hilbert's drittes Problem} \section{Hilbert's drittes Problem}
In In
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
drittem Problem} geht es um folgende Frage: gegeben sind zwei drittem Problem} geht es um folgende Frage: gegeben sind zwei
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum \href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
$ℝ³$. Ich möchte den ersten Polyeder $P_1$ durch gerade Schnitte in ein $ℝ³$. Ich möchte das erste Polyeder $P_1$ durch gerade Schnitte in ein Puzzle
Puzzle zerlegen, aus dem sich der zweite Polyeder $P_2$ zusammensetzen lässt. zerlegen, aus dem sich das zweite Polyeder $P_2$ zusammensetzen lässt. Kann ich
Kann ich entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die Polyeder
Polyeder $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} sind.
sind.
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar. werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
\begin{beobachtung} \begin{beobachtung}
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
die Antwort ``Nein!'' die Antwort „Nein!“
\end{beobachtung} \end{beobachtung}
\begin{notation} \begin{notation}
@ -48,23 +46,23 @@ werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
Schauen Sie zum Thema Invarianten einmal in Schauen Sie zum Thema Invarianten einmal in
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen \href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen haben,
haben, können sie nicht zerlegungsgleich sein. Invarianten können uns also können sie nicht zerlegungsgleich sein. Invarianten können uns also helfen, für
helfen, für gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf Hilbert's Frage zu
Hilbert's Frage zu geben. geben.
\section{Die Dehn-Invariante} \section{Die Dehn-Invariante}
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$ Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
``Volumen'' ist also nicht fein genug um Hilbert's Frage vollständig zu „Volumen“ ist also nicht fein genug um Hilbert's Frage vollständig zu
beantworten. Aus diesem Grund konstruierte Max beantworten. Aus diesem Grund konstruierte Max
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (* Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North 13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
Anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
offensichtlich ist, wie das Volumen. Die offensichtlich ist, wie das Volumen. Die
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung \emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
\[ \[
@ -87,10 +85,10 @@ $$. Elemente sind zum Beispiel die Zahlen $1$, $\sqrt{2}$ oder die Kreiszahl
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional. $π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
\begin{bemerkung} \begin{bemerkung}
Um mit dem $$-Vektorraum $$ warm zu werden, fragen wir: ist die Menge Um mit dem $$-Vektorraum $$ warmzuwerden, fragen wir: ist die Menge $\{ 1,
$\{ 1, \sqrt{2}\}$ $$-linear unabhängig? Die Antwort ist ``Nein!'' Denn \sqrt{2}\}$ $$-linear unabhängig? Die Antwort ist „Nein!“, denn falls es
falls es zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale $$-lineare
$$-lineare Relation gäbe, Relation gäbe,
\[ \[
p · 1 + q · \sqrt{2} = 0, p · 1 + q · \sqrt{2} = 0,
\] \]
@ -98,10 +96,10 @@ $π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
aber schon, dass $\sqrt{2}$ irrational ist. aber schon, dass $\sqrt{2}$ irrational ist.
\end{bemerkung} \end{bemerkung}
Um jetzt den $$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl Um jetzt den $$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl $π$
$π$ erzeugten $$-Untervektorraum $\langle π \rangle$. Weiter erzeugten $$-Untervektorraum $\langle π \rangle$. Weiter betrachten wir
betrachten wir den Quotientenvektorraum $\factor{}{\langle π \rangle}$. Der den Quotientenvektorraum $\factor{}{\langle π \rangle}$. Der Vektorraum $V$
Vektorraum $V$ von Max Dehn ist dann gleich dem Tensorprodukt, von Max Dehn ist dann gleich dem Tensorprodukt,
\[ \[
V = \left(\factor{}{\langle π \rangle}\right). V = \left(\factor{}{\langle π \rangle}\right).
\] \]
@ -110,20 +108,20 @@ Dies ist ein Tensorprodukt von $$-Vektorräumen, also selbst ein $$-Vektor
\subsection{Konstruktion der Invariante} \subsection{Konstruktion der Invariante}
Als nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$ Als Nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
$(E_1)$, …, $(E_n)$; dies sind positive reelle Zahlen. An jeder Kante $(E_1)$, …, $(E_n)$; dies sind positive reelle Zahlen. An jeder Kante kommen
kommen zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das $α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
Bogenmaß. Nach diesen Vorbereitung definieren wir das die Dehn-Invariante von Bogenmaß. Nach diesen Vorbereitungen definieren wir das die Dehn-Invariante von
$P$ schließlich als $P$ schließlich als
\[ \[
\operatorname{dehn}(P) := \sum_{k=1}^{n} (E_k) ⊗ α (E_k). \operatorname{dehn}(P) := \sum_{k=1}^{n} (E_k) ⊗ α (E_k).
\] \]
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante Wir werden gleich zeigen, dass dies tatsächlich eine Invariante definiert.
definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\begin{beobachtung} \begin{beobachtung}
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
@ -228,7 +226,7 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\item Kanten, die vollständig in $P_1$ oder in $P_2$ liegen (in der Abbildung grün). \item Kanten, die vollständig in $P_1$ oder in $P_2$ liegen (in der Abbildung grün).
\item Kanten, die bei der Zerlegung von $P$ zerschnitten werden (in der \item Kanten, die bei der Zerlegung von $P$ zerschnitten werden (in der
Abbildung schwarz). Abbildung schwarz).
\end{itemize} \end{itemize}
Nach Umnummerierung können wir ohne Einschränkung der Allgemeinheit annehmen, Nach Umnummerierung können wir ohne Einschränkung der Allgemeinheit annehmen,
dass die Kanten $E_1$, …, $E_b$ grün und dass die Kanten $E_{b+1}$, …, $E_n$ dass die Kanten $E_1$, …, $E_b$ grün und dass die Kanten $E_{b+1}$, …, $E_n$
@ -236,34 +234,34 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
gibt es drei unterschiedliche Arten von Kanten. gibt es drei unterschiedliche Arten von Kanten.
\begin{itemize} \begin{itemize}
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne \item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$ Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten
Kanten des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ und
und $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
bezeichnen, dann gelten die Gleichungen bezeichnen, dann gelten die Gleichungen
\begin{equation} \begin{equation}
\begin{matrix} \begin{matrix}
α(E_1) = α¹(E_1) && α(E_a) = α¹(E_a) \\ α(E_1) = α¹(E_1) && α(E_a) = α¹(E_a) \\
α(E_{a+1}) = α²(E_{a+1}) && α(E_b) = α²(E_b) α(E_{a+1}) = α²(E_{a+1}) && α(E_b) = α²(E_b)
\end{matrix} \end{matrix}
\end{equation} \end{equation}
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen \item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
Kante $E_{}$ mit $_{}$ und $_{}$ bezeichnen, dann Kante $E_{}$ mit $_{}$ und $_{}$ bezeichnen, dann gilt für die Längen
gilt für die Längen und für die Winkel und für die Winkel
\begin{equation} \begin{equation}
\begin{aligned} \begin{aligned}
(E_{}) & = ℓ¹(E¹_{}) + ℓ²(E²_{}) \\ (E_{}) & = ℓ¹(E¹_{}) + ℓ²(E²_{}) \\
α(E_{}) & = α¹(E¹_{}) = α²(E²_{}) α(E_{}) & = α¹(E¹_{}) = α²(E²_{}).
\end{aligned} \end{aligned}
\end{equation} \end{equation}
\item Schließlich gibt es noch Kanten, die durch das Zerlegen neu \item Schließlich gibt es noch Kanten, die durch das Zerlegen neu
hinzugekommen sind. Eine solche Kante tritt immer zwei mal auf: ein mal in hinzugekommen sind. Eine solche Kante tritt immer zweimal auf: einmal in
$P_1$ und ein mal in $P_2$. Wir bezeichnen diese Kanten mit $_{n+1}$, $P_1$ und einmal in $P_2$. Wir bezeichnen diese Kanten mit $_{n+1}$,
$_{n+1}$, …, $_m$, $_m$. Es gilt für jeden Index $i > n$ $_{n+1}$, …, $_m$, $_m$. Es gilt für jeden Index $i > n$
\begin{equation} \begin{equation}
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π.
\end{equation} \end{equation}
\end{itemize} \end{itemize}
Mit diesen Bezeichnungen ist Mit diesen Bezeichnungen ist