This commit is contained in:
Stefan Kebekus 2025-07-02 10:51:46 +02:00
parent ed0e972443
commit 4b1c86c1ea
7 changed files with 262 additions and 259 deletions

View File

@ -97,3 +97,13 @@ Kronecker-Produkt
Kronecker
Tensorprodukträume
Tensorproduktkonstruktion
Tensorproduktabbildung
Multiplikationsabbildung
Permutationsgruppe
Erzeugendensystemen
auszumultiplizieren
inner-mathematischen
zerlegungsgleich
Zerlegungsgleichheit
Invarianteneigenschaft
Quotientenvektorraum

View File

@ -64,3 +64,16 @@
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWorum geht es?.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin Tensorprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDeshalb liefert uns die universelle Eigenschaft aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und ein kommutatives Diagramm wie folgt, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVielleicht sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, so dass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert ein \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QAlso ist \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qbinomi \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QErinnern Sie sich an die letzten Vorlesungen von „Lineare Algebra I“?\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q…und was kann ich jetzt damit machen?.\\E$"}

View File

@ -26,7 +26,7 @@ direkte Summe,
Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder
mehr Komponenten. Ich erhalte so Vektorräume
\[
V V V \quad\text{oder}\quad \underbrace{V V}_{n }
V V V \quad\text{oder}\quad \underbrace{V V}_{n }.
\]
Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu
verallgemeinern.
@ -70,12 +70,12 @@ gibt, die auch unterschiedliche Ergebnisse liefern.
\begin{bemerkung}
In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von
$V^i$ auch als Abbildungen $I → V$ auffassen.
$V^I$ auch als Abbildungen $I → V$ auffassen.
\end{bemerkung}
\begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}%
Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$
ist, nennt man $k^I$ auch den \emph{von der Menge $I$ frei erzeugten
ist, nennt man $k^{(I)}$ auch den \emph{von der Menge $I$ frei erzeugten
Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$,
betrachte den Vektor
\[

View File

@ -9,7 +9,7 @@
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
es ist, dass all bilinearen Abbildungen von $UV → W$ ``von $U⊗V$ kommen'', und
es ist, dass all bilinearen Abbildungen von $U V → W$ „von $U⊗V$ kommen“, und
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise.
@ -19,12 +19,12 @@ präzise.
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U V → T$,
sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U V →
W$ gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende
W$ gibt es genau eine lineare Abbildung $η: T → W$, sodass das folgende
Diagramm kommutiert:
\[
\begin{tikzcd}[column sep=2cm]
UV \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
UV \ar[r, "s\text{, bilinear}"'] & W .
U V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
U V \ar[r, "s\text{, bilinear}"'] & W .
\end{tikzcd}
\]
\end{defn}
@ -32,10 +32,10 @@ präzise.
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter
seien $τ_1 : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}%
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1
: U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann gibt es
einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\end{satz}
\begin{proof}
\video{21-1}
@ -43,9 +43,9 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann
existiert ein Tensorprodukt.
\begin{satz}[Existenz des Tensorproduktes]\label{satz:15-1-3}%
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann existiert
ein Tensorprodukt.
\end{satz}
\begin{proof}
\video{21-2}
@ -97,8 +97,8 @@ wissen, ob sie Null sind oder nicht.
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
Selbst wenn ein gegebener $\vec{τ} = \vec{u}\vec{v} ∈ U⊗V$ ein reiner Tensor
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung
$τ : UV → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung $τ : U
V → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit
\[
\vec{u}\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
\]
@ -110,9 +110,8 @@ wissen, ob sie Null sind oder nicht.
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ in $V⊗V$ gilt, ebenfalls
überraschend schwer sein.
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1\vec{v}_2 =
\vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls überraschend schwer sein.
\end{bemerkung}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
@ -144,17 +143,16 @@ hinschreiben können.
\begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren]
Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als
Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, sodass die folgende Gleichung
gilt,
\[
\vec{τ} = \sum_i a_i·(\vec{u_i}\vec{v_i}).
\]
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
Index $i$ die Gleichung
$a_(\vec{u_i}\vec{v_i}) = (a_\vec{u_i})\vec{v_i}$. Es ist also nicht
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen
Tensoren schreiben kann.
Index $i$ die Gleichung $a_(\vec{u_i}\vec{v_i}) =
(a_\vec{u_i})⊗\vec{v_i}$. Es ist also nicht nur richtig, dass ich jeden
Tensor als Linearkombination von reinen Tensoren schreiben kann, es gilt
sogar, dass ich jeden Tensor als Summe von reinen Tensoren schreiben kann.
\end{bemerkung}
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
@ -233,7 +231,7 @@ Tensorproduktraum erhält.
$(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und
beachten, dass für jedes Paar $(i,j) ∈ I J$ von Indices die Abbildung
\[
s_{ij} : UV → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
s_{ij} : U V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
\vec{v}^{\:*}_i(\vec{v})
\]
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also

View File

@ -4,7 +4,7 @@
\chapter{Tensorprodukte mit mehreren Faktoren}
\label{sec:tAlg}
\sideremark{Vorlesung 22}Das laufende Kapitel heißt ``Multilineare Algebra'',
\sideremark{Vorlesung 22}Das laufende Kapitel heißt „Multilineare Algebra“,
bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen
betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem
Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt
@ -17,12 +17,12 @@ nennen.
\section{Definition, Existenz und Eindeutigkeit}
Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem
Begriff ``bilineare Abbildung''. Um das Tensorprodukt auch für eine größere
Zahl von Faktoren zu definieren, betrachten wir ganz analog ``multilineare
Abbildungen''.
Begriff „bilineare Abbildung“. Um das Tensorprodukt auch für eine größere Zahl
von Faktoren zu definieren, betrachten wir ganz analog multilineare
Abbildungen.
\begin{defn}[Multilineare Abbildungen]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien seien $W$ und $V_1, …, V_n$
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $W$ und $V_1, …, V_n$
jeweils $k$-Vektorräume. Eine Abbildung
\[
s: V_1 V_2 V_n → W
@ -36,17 +36,16 @@ Abbildungen''.
\end{multline*}
\end{defn}
Mit diesem Begriff von ``Multilinearform'' können wir jetzt ganz allgemein
Mit diesem Begriff von „Multilinearform“ können wir jetzt ganz allgemein
Tensorprodukte von mehr als zwei Vektorräumen definieren.
\begin{defn}[Tensorprodukt]\label{def:16-1-2}
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Ein \emph{Tensorprodukt von
$V_1, …, V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein
Vektorraum $T$ zusammen mit einer multilinearen Abbildung
$τ: V_1 V_n → T$, so dass für alle multilinearen Abbildungen
$s: V_1 V_n → W$ genau eine lineare Abbildung $η: T → W$ existiert, so
dass das folgende Diagramm kommutiert
\begin{defn}[Tensorprodukt]\label{def:16-1-2}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Ein \emph{Tensorprodukt von $V_1, …,
V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein Vektorraum $T$
zusammen mit einer multilinearen Abbildung $τ: V_1 V_n → T$, sodass für
alle multilinearen Abbildungen $s: V_1 V_n → W$ genau eine lineare
Abbildung $η: T → W$ existiert, sodass das folgende Diagramm kommutiert
\[
\begin{tikzcd}[column sep=2cm]
V_1 V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
@ -58,57 +57,55 @@ Tensorprodukte von mehr als zwei Vektorräumen definieren.
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des Tensorprodukts.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Weiter seien $τ_1 : V_1 V_n → T_1$ und
$τ_1 : V_1 V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen
kanonischen Isomorphismus $T_1 ≅ T_2$. \qed
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Weiter seien $τ_1 : V_1 V_n → T_1$ und $τ_1 : V_1
V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus
$T_1 ≅ T_2$. \qed
\end{satz}
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed
\end{satz}
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen
wir die Sprache, sprechen von ``dem Tensorprodukt'' und schreiben
\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]%
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
Sprache, sprechen von „dem Tensorprodukt“ und schreiben
\[
τ : V_1 V_n → V_1 ⊗ ⋯ ⊗ V_n.
\]
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
$\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als
\emph{rein}\index{Reine Tensoren}.
Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1
⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als \emph{rein}\index{Reine
Tensoren}.
\end{notation}
\begin{notation}[Mehrfache Produkte]
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz
$V^{⊗ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$
definieren wir zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen
Vektoren $\vec{v} ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt
$\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz $V^{
n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ definieren wir
zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen Vektoren $\vec{v}
∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt $\vec{v} ⊗ ⋯ ⊗ \vec{v}$.
\end{notation}
\section{Assoziativität}
Zusätzlich zu ``Existenz'' und ``Eindeutigkeit'' gibt es beim Tensorprodukt mit
Zusätzlich zu „Existenz“ und „Eindeutigkeit“ gibt es beim Tensorprodukt mit
mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist:
die Assoziativität. Der folgende Satz klärt alles.
\begin{satz}[Assoziativität des Tensorproduktes]
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume
$V_1, …, V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die
Vektorräume
Es sei $k$ ein Körper, es sei $n ∈ $ und es seien $k$-Vektorräume $V_1, …,
V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die Vektorräume
\[
V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n
\]
kanonisch isomorph.
\end{satz}
\begin{proof}
Ich gebe keinen vollen Beweis sondern diskutiere nur die Idee. Sie sollten an
dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
Ich gebe keinen vollen Beweis, sondern diskutiere nur die Idee. Sie sollten
an dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus
aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben.
Betrachten Sie die Abbildung
\[
@ -144,10 +141,10 @@ jeweils ohne Beweis die wesentlichen Punkte auf.
Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine
lexikographisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
lexikografisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$.
\item Falls alle $V_{}$ endlich-dimensional sind, dann ist
$\dim V_1 ⊗ ⋯ ⊗ V_n = \prod_i \dim V_i$
\item Falls alle $V_{}$ endlich-dimensional sind, dann ist $\dim V_1 ⊗ ⋯ ⊗ V_n
= \prod_i \dim V_i$.
\item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen
zwischen den Tensorprodukten.
@ -193,13 +190,12 @@ und
& (λ,ν) && λ·ν.
\end{matrix}
\]
Diese ``Definitionen'' verwenden die schreckliche Notation~\ref{15-2-7}.
Schauen Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe
nach, dass die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu
zeigen? Die Abbildung $m_{ab}$ sieht ein bisschen aus wie eine
Multiplikationsabbildung. Der relevante Begriff ist der einer $k$-Algebra: dies
ist ein Vektorraum, der um eine mit der Vektorraumstruktur verträgliche
Multiplikation erweitert wurde.
Diese „Definitionen“ verwenden die schreckliche Notation~\ref{15-2-7}. Schauen
Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe nach, dass
die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu zeigen? Die
Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Multiplikationsabbildung. Der
relevante Begriff ist der einer $k$-Algebra: Dies ist ein Vektorraum, der um
eine mit der Vektorraumstruktur verträgliche Multiplikation erweitert wurde.
\begin{defn}[Algebra über einem Körper]
Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder
@ -212,19 +208,17 @@ Multiplikation erweitert wurde.
\begin{itemize}
\item Die Algebra heißt \emph{kommutativ}\index{kommutative
Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2 ∈ V$ die Gleichheit
$m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, \vec{v}_1)$ gilt.
$\vec{v}_2 ∈ V$ die Gleichheit $m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2,
\vec{v}_1)$ gilt.
\item Die Algebra heißt \emph{assoziativ}\index{assoziative
Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$,
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit
$m\bigl(\vec{v}_1, m(\vec{v}_2, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1,
\vec{v}_2), \vec{v}_3 \bigr)$ gilt.
$\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $m\bigl(\vec{v}_1, m(\vec{v}_2,
\vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_2), \vec{v}_3 \bigr)$ gilt.
\item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins},
falls es ein Element $\vec{e} ∈ V$ gibt, so dass für alle Vektoren
$\vec{v} ∈ V$ die Gleichheit
$m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
falls es ein Element $\vec{e} ∈ V$ gibt, sodass für alle Vektoren $\vec{v}
V$ die Gleichheit $m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt.
\end{itemize}
\end{defn}
@ -244,8 +238,8 @@ Beispiele für Algebren kennen Sie schon.
\end{bsp}
\begin{bsp}[Matrizen]
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n n, k)$,
der Vektorraum der $(n n)$-Matrizen. Die Abbildung $m$ sei die
Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n n, k)$,
der Vektorraum der $(n n)$-Matrizen. Die Abbildung $m$ sei die
Matrixmultiplikation. Diese Algebra ist nicht kommutativ, aber assoziativ und
besitzt eine Eins.
\end{bsp}

View File

@ -5,24 +5,24 @@
\label{sec:wedge}
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
in der Differenzialgeometrie schrecklich wichtig ist: Die äußere Algebra. Auf
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genauso
langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der Schein
trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten?
sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?
\section{Definition, Existenz und Eindeutigkeit}
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche
Abbildungen beschränken, die alternierend sind.
Die äußere Algebra und das äußere Produkt (auch „Dachprodukt“) ist fast genau so
definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige Unterschied
ist, dass wir uns bei den multilinearen Abbildungen auf solche Abbildungen
beschränken, die alternierend sind.
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei
$n $ eine Zahl. Eine multilineare Abbildung
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}%
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei $n
$ eine Zahl. Eine multilineare Abbildung
\[
s : \underbrace{V V}_{n } → W
\]
@ -32,10 +32,10 @@ Abbildungen beschränken, die alternierend sind.
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
\end{equation}
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
Vektor mal auftritt. Formell: die multilineare Abbildung $s$ heißt
alternierend falls die Gleichung~\eqref{eq:dfjgh} für jedes Tupel $(\vec{v}_1,
…, \vec{v}_n)$ von Vektoren gilt, für das es zwei unterschiedliche Indizes $i
\ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
\end{defn}
\begin{beobachtung}
@ -56,7 +56,7 @@ Abbildungen beschränken, die alternierend sind.
\begin{prov}
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
``alternierende Multilineare Abbildung'' nehmen?
„alternierende Multilineare Abbildung“ nehmen?
\end{prov}
\begin{notation}[Produkte]
@ -68,9 +68,9 @@ Abbildungen beschränken, die alternierend sind.
\begin{bsp}[Determinante]
Es sei $k$ ein Körper und es sei $n ∈ $ eine Zahl. Betrachte Matrizen als
Tupel von Spaltenvektoren und identifiziere so den Vektorraum
$\Mat(n n, k)$ der $(n n)$-Matrizen mit dem Vektorraum
$k^n k^n$. Dann ist die Determinantenabbildung
Tupel von Spaltenvektoren und identifiziere so den Vektorraum $\Mat(n n, k)$
der $(n n)$-Matrizen mit dem Vektorraum $k^n k^n$. Dann ist die
Determinantenabbildung
\[
\det : k^n k^n → k
\]
@ -79,20 +79,20 @@ Abbildungen beschränken, die alternierend sind.
\begin{bsp}[Kreuzprodukt]
Das von Physiker geliebte
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem
$ℝ³$} ist eine alternierende multilineare Abbildung.
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem $ℝ³$}
ist eine alternierende multilineare Abbildung.
\end{bsp}
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
Vektorräumen definieren.
\begin{defn}[Äußeres Produkt]\label{def:17-1-4}
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, so
dass für alle multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert
\begin{defn}[Äußeres Produkt]\label{def:17-1-4} Es sei $k$ ein Körper, es sei $n
$ und es sei ein $k$-Vektorraum $V$ gegeben. Ein \emph{$n$.tes äußeres
Produkt}\index{äußeres Produkt} oder \emph{$n$.tes
Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ zusammen mit
einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, sodass für alle
multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare Abbildung $η: T →
W$ existiert, sodass das folgende Diagramm kommutiert
\[
\begin{tikzcd}[column sep=4cm]
V^{ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
@ -104,45 +104,42 @@ Vektorräumen definieren.
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des äußeren Produktes.
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Weiter seien $τ_1 : V^{n} → T_1$ und $τ_1 : V^{n} → T_2$ zwei
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus
$T_1 ≅ T_2$. \qed
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $T_1
T_2$. \qed
\end{satz}
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
\end{satz}
\begin{notation}[Notation rund um äußere Produkte]
\begin{notation}[Notation rund um äußere Produkte]%
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben
Sprache, sprechen von „dem $n$.ten äußeren Produkt“ und schreiben
\[
τ : V^{n}\bigwedge^n V.
\]
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von
\emph{reinen Dächern}\index{reine Dächer}.
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben die
Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und
bezeichnen diese Elemente von $Λ^n V$ als \emph{rein}. Etwas
umgangssprachlich spricht man von \emph{reinen Dächern}\index{reine Dächer}.
\end{notation}
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß
Definition~\ref{def:17-1-1} die folgenden Regeln.
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}%
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber jedes
Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Dächern
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß Definition~\ref{def:17-1-1} die
folgenden Regeln.
\begin{itemize}
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$
gleich $\vec{0}_{Λ^n V}$.
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit $\vec{v}_i =
\vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gleich $\vec{0}_{Λ^n V}$.
\item Für jede Permutation $ρ ∈ S_n$ ist
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯
Λ \vec{v}_{ρ(n)}$.
\item Für jede Permutation $ρ ∈ S_n$ ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n =
\sgn(ρ\vec{v}_{ρ(1)} Λ ⋯ Λ \vec{v}_{ρ(n)}$.
\end{itemize}
\end{beobachtung}
@ -163,9 +160,8 @@ Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
\end{beobachtung}
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine
Basis von $(ℝ²)^{2}$ durch die Menge
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa $\{ \vec{e}_1, \vec{e}_2\}
ℝ²$ die Einheitsbasis ist, dann ist eine Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
\[
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
\vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
@ -184,14 +180,12 @@ Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …)
verzichte ich darauf.
Normalerweise würde ich an dieser Stelle einen sehr ausführlichen Beweis geben.
In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf.
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}
In der Situation von Definition~\ref{def:17-1-4} sei
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann
ist die Menge
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}%
In der Situation von Definition~\ref{def:17-1-4} sei $E = \{ \vec{v}_1, …,
\vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann ist die Menge
\[
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
\]
@ -199,7 +193,7 @@ verzichte ich darauf.
\end{satz}
\begin{bemerkung}
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikografisch anordnen
sollte!
\end{bemerkung}
@ -223,8 +217,8 @@ verzichte ich darauf.
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir
wie folgt eine Abbildung
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir wie
folgt eine Abbildung
\[
\begin{matrix}
m_{ab} : & Λ^a V Λ^b V && Λ^{a+b} V \\
@ -252,7 +246,7 @@ und
& (λ,ν) && λ·ν.
\end{matrix}
\]
Diese ``Definitionen'' verwenden die analog die schreckliche
Diese „Definitionen“ verwenden die analog die schreckliche
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
@ -275,8 +269,8 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
\begin{bemerkung}
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$
sobald $n>\dim V$ ist. Also ist
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ sobald
$n>\dim V$ ist. Also ist
\[
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
2^{\dim V}.
@ -290,11 +284,10 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
eine Abbildung zwischen den Dachprodukten induziert.
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}%
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
$n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende
Diagramm kommutiert,
$n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau einen
Endomorphismus $η : Λ^n V → Λ^n V$, sodass das folgende Diagramm kommutiert,
\[
\begin{tikzcd}[column sep=2cm]
V^{ n} \ar[d, "τ"'] \ar[r, "f f"] & V^{ n} \ar[d, "τ"] \\
@ -304,9 +297,9 @@ eine Abbildung zwischen den Dachprodukten induziert.
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
\end{satz}
\begin{proof}
Hier ist fast nichts zu zeigen. Die Abbildung
$τ◦(f f)$ ist alternierend und multilinear. Also
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft.
Hier ist fast nichts zu zeigen. Die Abbildung $τ◦(f f)$ ist
alternierend und multilinear. Also existiert die Abbildung $η$ entsprechend
der universellen Eigenschaft.
\end{proof}
\begin{bemerkung}
@ -321,18 +314,18 @@ Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
geht's.
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}%
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt.
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren $\vec{v}_1, …,
\vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das Dachprodukt $\vec{v}_1
Λ ⋯ Λ \vec{v}_k$ wie folgt.
\begin{itemize}
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix
$A := (a_{ij})\Mat(n k, k)$.
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
$A_{i_1, …,i_k}\Mat(k k, k)$ die Matrix, die aus den Spalten
$i_1, …,i_k$ der Matrix $A$ besteht.
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $A :=
(a_{ij}) ∈ \Mat(n k, k)$.
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei $A_{i_1, …,i_k}\Mat(k k, k)$
die Matrix, die aus den Spalten $i_1, …,i_k$ der Matrix $A$ besteht.
\end{itemize}
Dann ist
\[
@ -342,11 +335,9 @@ geht's.
\]
\end{satz}
\begin{proof}
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt
ausrechnen, was der Koeffizient von
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
besseres ein, als das Produkt
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt ausrechnen, was
der Koeffizient von $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in $\vec{v}_1 Λ ⋯ Λ
\vec{v}_k$. Dazu fällt mir (leider!) nichts Besseres ein, als das Produkt
\[
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
@ -361,7 +352,7 @@ geht's.
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
& = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest})
& = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}).
\end{align*}
Damit ist der Satz dann wohl bewiesen.
\end{proof}
@ -382,12 +373,11 @@ geht's.
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist,
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage:
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese
Frage.
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, $n := \dim
V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist eine
lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung ist
aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: „Was ist
$λ$?“ Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage.
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
@ -398,16 +388,16 @@ Frage.
\end{kor}
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
Determinante. Da Determinanten extrem eng mit dem Begriff „Volumen“ aus der
Differenzialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
geometrische Aussage.
\subsection{Die Koeffizienten des charakteristischen Polynoms}
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer
Matrix $A ∈ \Mat(n n,k)$ diskutiert,
„Lineare Algebra I“? Dort hatten wir das charakteristische Polynom einer Matrix
$A ∈ \Mat(n n,k)$ diskutiert,
\[
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
a_{n-1}(A)·t + a_n(A) \right).
@ -417,15 +407,15 @@ Wir hatten staunend festgestellt, dass die Funktionen
a_i : \Mat(n n, k) → k
\]
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
$A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
$A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass
konnten wir nur zwei dieser Zahlen ausrechnen: Wir hatten gesehen, dass
\[
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
\]
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen!
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]%
Es sei $k$ ein Körper, es sei $n ∈ $, es sei $V$ ein $n$-dimensionaler
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
Polynom von $f$ als
@ -455,7 +445,7 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\vdots & \ddots \\
& & & & a_{(n-1)n}\\
a_{n1} && & a_{n(n-1)} & a_{nn}-t
\end{pmatrix}
\end{pmatrix}.
\]
Das charakteristische Polynom ist dann die Determinante von $B$, also
\begin{equation}\label{eq:xcydfg}
@ -492,10 +482,10 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
wir noch einmal daran, dass die Dachprodukte
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von
$Λ^k V$ bilden. Gegeben also ein solches Basiselement
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3}
wir noch einmal daran, dass die Dachprodukte $(\vec{e}_{i_1} Λ ⋯ Λ
\vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von $Λ^k V$ bilden. Gegeben
also ein solches Basiselement $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist
nach Satz~\ref{satz:17-4-3}
\begin{align*}
^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k}\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
@ -513,8 +503,8 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix
$\widetilde{A}^{i_1, …, i_k}$ ist.
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix $\widetilde{A}^{i_1, …,
i_k}$ ist.
\end{proof}
% !TEX root = LineareAlgebra2

View File

@ -6,33 +6,31 @@
\marginpar{Vorlesung 24}Auf dem zweiten internationalen Mathematikerkongress im
August 1900 in Paris hielt David
Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch
breit gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste
von 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag
beim Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen
Probleme als äußerst einflussreich für die Entwicklung der Mathematik im
20.~Jahrhundert.
Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen)
war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch breit
gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste von
23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag beim
Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Probleme
als äußerst einflussreich für die Entwicklung der Mathematik im 20.~Jahrhundert.
\section{Hilbert's drittes Problem}
In
\href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's
drittem Problem} geht es um folgende Frage: gegeben sind zwei
drittem Problem} geht es um folgende Frage: gegeben sind zwei
\href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum
$ℝ³$. Ich möchte den ersten Polyeder $P_1$ durch gerade Schnitte in ein
Puzzle zerlegen, aus dem sich der zweite Polyeder $P_2$ zusammensetzen lässt.
Kann ich entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die
Polyeder $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit}
sind.
$ℝ³$. Ich möchte das erste Polyeder $P_1$ durch gerade Schnitte in ein Puzzle
zerlegen, aus dem sich das zweite Polyeder $P_2$ zusammensetzen lässt. Kann ich
entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die Polyeder
$P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} sind.
Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir
werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
\begin{beobachtung}
Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist
die Antwort ``Nein!''
die Antwort „Nein!“
\end{beobachtung}
\begin{notation}
@ -48,23 +46,23 @@ werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar.
Schauen Sie zum Thema Invarianten einmal in
\href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen
haben, können sie nicht zerlegungsgleich sein. Invarianten können uns also
helfen, für gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf
Hilbert's Frage zu geben.
lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen haben,
können sie nicht zerlegungsgleich sein. Invarianten können uns also helfen, für
gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf Hilbert's Frage zu
geben.
\section{Die Dehn-Invariante}
Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$
mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante
``Volumen'' ist also nicht fein genug um Hilbert's Frage vollständig zu
„Volumen“ ist also nicht fein genug um Hilbert's Frage vollständig zu
beantworten. Aus diesem Grund konstruierte Max
Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (*
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
Anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North
Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter
anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität
Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so
offensichtlich ist, wie das Volumen. Die
\emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung
\[
@ -87,10 +85,10 @@ $$. Elemente sind zum Beispiel die Zahlen $1$, $\sqrt{2}$ oder die Kreiszahl
$π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
\begin{bemerkung}
Um mit dem $$-Vektorraum $$ warm zu werden, fragen wir: ist die Menge
$\{ 1, \sqrt{2}\}$ $$-linear unabhängig? Die Antwort ist ``Nein!'' Denn
falls es zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale
$$-lineare Relation gäbe,
Um mit dem $$-Vektorraum $$ warmzuwerden, fragen wir: ist die Menge $\{ 1,
\sqrt{2}\}$ $$-linear unabhängig? Die Antwort ist „Nein!“, denn falls es
zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale $$-lineare
Relation gäbe,
\[
p · 1 + q · \sqrt{2} = 0,
\]
@ -98,10 +96,10 @@ $π$. Dieser Vektorraum ist natürlich unendlich-dimensional.
aber schon, dass $\sqrt{2}$ irrational ist.
\end{bemerkung}
Um jetzt den $$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl
$π$ erzeugten $$-Untervektorraum $\langle π \rangle$. Weiter
betrachten wir den Quotientenvektorraum $\factor{}{\langle π \rangle}$. Der
Vektorraum $V$ von Max Dehn ist dann gleich dem Tensorprodukt,
Um jetzt den $$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl $π$
erzeugten $$-Untervektorraum $\langle π \rangle$. Weiter betrachten wir
den Quotientenvektorraum $\factor{}{\langle π \rangle}$. Der Vektorraum $V$
von Max Dehn ist dann gleich dem Tensorprodukt,
\[
V = \left(\factor{}{\langle π \rangle}\right).
\]
@ -110,20 +108,20 @@ Dies ist ein Tensorprodukt von $$-Vektorräumen, also selbst ein $$-Vektor
\subsection{Konstruktion der Invariante}
Als nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
Als Nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$
konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des
Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen
die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit
$(E_1)$, …, $(E_n)$; dies sind positive reelle Zahlen. An jeder Kante
kommen zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
$(E_1)$, …, $(E_n)$; dies sind positive reelle Zahlen. An jeder Kante kommen
zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit
$α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das
Bogenmaß. Nach diesen Vorbereitung definieren wir das die Dehn-Invariante von
Bogenmaß. Nach diesen Vorbereitungen definieren wir das die Dehn-Invariante von
$P$ schließlich als
\[
\operatorname{dehn}(P) := \sum_{k=1}^{n} (E_k) ⊗ α (E_k).
\]
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante
definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
Wir werden gleich zeigen, dass dies tatsächlich eine Invariante definiert.
Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\begin{beobachtung}
Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed
@ -237,9 +235,9 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\begin{itemize}
\item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne
Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$
Kanten des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$
und $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten
des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ und
$α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder
bezeichnen, dann gelten die Gleichungen
\begin{equation}
\begin{matrix}
@ -249,21 +247,21 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel.
\end{equation}
\item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen
Kante $E_{}$ mit $_{}$ und $_{}$ bezeichnen, dann
gilt für die Längen und für die Winkel
Kante $E_{}$ mit $_{}$ und $_{}$ bezeichnen, dann gilt für die Längen
und für die Winkel
\begin{equation}
\begin{aligned}
(E_{}) & = ℓ¹(E¹_{}) + ℓ²(E²_{}) \\
α(E_{}) & = α¹(E¹_{}) = α²(E²_{})
α(E_{}) & = α¹(E¹_{}) = α²(E²_{}).
\end{aligned}
\end{equation}
\item Schließlich gibt es noch Kanten, die durch das Zerlegen neu
hinzugekommen sind. Eine solche Kante tritt immer zwei mal auf: ein mal in
$P_1$ und ein mal in $P_2$. Wir bezeichnen diese Kanten mit $_{n+1}$,
hinzugekommen sind. Eine solche Kante tritt immer zweimal auf: einmal in
$P_1$ und einmal in $P_2$. Wir bezeichnen diese Kanten mit $_{n+1}$,
$_{n+1}$, …, $_m$, $_m$. Es gilt für jeden Index $i > n$
\begin{equation}
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π
ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π.
\end{equation}
\end{itemize}
Mit diesen Bezeichnungen ist