diff --git a/.vscode/ltex.dictionary.de-DE.txt b/.vscode/ltex.dictionary.de-DE.txt index f9e42c3..4ca7426 100644 --- a/.vscode/ltex.dictionary.de-DE.txt +++ b/.vscode/ltex.dictionary.de-DE.txt @@ -97,3 +97,13 @@ Kronecker-Produkt Kronecker Tensorprodukträume Tensorproduktkonstruktion +Tensorproduktabbildung +Multiplikationsabbildung +Permutationsgruppe +Erzeugendensystemen +auszumultiplizieren +inner-mathematischen +zerlegungsgleich +Zerlegungsgleichheit +Invarianteneigenschaft +Quotientenvektorraum diff --git a/.vscode/ltex.hiddenFalsePositives.de-DE.txt b/.vscode/ltex.hiddenFalsePositives.de-DE.txt index eb7fe3c..fd2df67 100644 --- a/.vscode/ltex.hiddenFalsePositives.de-DE.txt +++ b/.vscode/ltex.hiddenFalsePositives.de-DE.txt @@ -64,3 +64,16 @@ {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"} {"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QBevor wir richtig „multi“ werden, diskutiere ich erst noch einmal bilineare Abbildungen und Funktionen.\\E$"} +{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWorum geht es?.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin Tensorprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDeshalb liefert uns die universelle Eigenschaft aus Definition \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und ein kommutatives Diagramm wie folgt, \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, multilin.\\E$"} +{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QVielleicht sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten?\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, so dass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, so dass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt oder \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes Dachprodukt von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ist ein Vektorraum \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zusammen mit einer alternierenden multilinearen Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle multilinearen Abbildungen \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q existiert, sodass das folgende Diagramm kommutiert \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\Q\\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, linear \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, alternierend multilin.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert ein \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.tes äußeres Produkt.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QAlso ist \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Qbinomi \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"} +{"rule":"KLEINSCHREIBUNG_KEIN_NAME","sentence":"^\\QErinnern Sie sich an die letzten Vorlesungen von „Lineare Algebra I“?\\E$"} +{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q…und was kann ich jetzt damit machen?.\\E$"} diff --git a/14-direkteSumme.tex b/14-direkteSumme.tex index c0ed922..5e1e618 100644 --- a/14-direkteSumme.tex +++ b/14-direkteSumme.tex @@ -26,7 +26,7 @@ direkte Summe, Dieselbe Konstruktion funktioniert natürlich genau so für Paare aus drei oder mehr Komponenten. Ich erhalte so Vektorräume \[ - V ⨯ V ⨯ V \quad\text{oder}\quad \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} + V ⨯ V ⨯ V \quad\text{oder}\quad \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯}. \] Das Ziel in diesem Abschnitt ist, diese Konstruktion in zwei Richtungen zu verallgemeinern. @@ -70,12 +70,12 @@ gibt, die auch unterschiedliche Ergebnisse liefern. \begin{bemerkung} In der Situation von Notation~\ref{not:14-1-3} können wir die Elemente von - $V^i$ auch als Abbildungen $I → V$ auffassen. + $V^I$ auch als Abbildungen $I → V$ auffassen. \end{bemerkung} \begin{notation}[Frei erzeugte Vektorräume, Einheitsvektoren]\label{not:14-1-5}% Es sei $k$ ein Körper und es sei $I$ eine Menge. Im Spezialfall, wo $V = k$ - ist, nennt man $k^I$ auch den \emph{von der Menge $I$ frei erzeugten + ist, nennt man $k^{(I)}$ auch den \emph{von der Menge $I$ frei erzeugten Vektorraum}\index{frei erzeugter Vektorraum}. Gegeben ein Element $j ∈ I$, betrachte den Vektor \[ diff --git a/15-tensor.tex b/15-tensor.tex index f11bdf1..855f826 100644 --- a/15-tensor.tex +++ b/15-tensor.tex @@ -9,7 +9,7 @@ Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$ und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft -es ist, dass all bilinearen Abbildungen von $U⨯V → W$ ``von $U⊗V$ kommen'', und +es ist, dass all bilinearen Abbildungen von $U ⨯ V → W$ „von $U⊗V$ kommen“, und zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung präzise. @@ -19,12 +19,12 @@ präzise. \emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U ⨯ V → T$, sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U ⨯ V → - W$ gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende + W$ gibt es genau eine lineare Abbildung $η: T → W$, sodass das folgende Diagramm kommutiert: \[ \begin{tikzcd}[column sep=2cm] - U⨯V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\ - U⨯V \ar[r, "s\text{, bilinear}"'] & W . + U ⨯ V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\ + U ⨯ V \ar[r, "s\text{, bilinear}"'] & W . \end{tikzcd} \] \end{defn} @@ -32,10 +32,10 @@ präzise. Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie. -\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2} - Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter - seien $τ_1 : U⨯ V → T_1$ und $τ_1 : U⨯ V → T_2$ zwei Tensorprodukte. Dann - gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$. +\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}% + Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1 + : U ⨯ V → T_1$ und $τ_1 : U ⨯ V → T_2$ zwei Tensorprodukte. Dann gibt es + einen kanonischen Isomorphismus $T_1 ≅ T_2$. \end{satz} \begin{proof} \video{21-1} @@ -43,9 +43,9 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten. -\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3} - Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann - existiert ein Tensorprodukt. +\begin{satz}[Existenz des Tensorproduktes]\label{satz:15-1-3}% + Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann existiert + ein Tensorprodukt. \end{satz} \begin{proof} \video{21-2} @@ -97,8 +97,8 @@ wissen, ob sie Null sind oder nicht. \begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig] Selbst wenn ein gegebener $\vec{τ} = \vec{u}⊗\vec{v} ∈ U⊗V$ ein reiner Tensor ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig. - Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung - $τ : U⨯V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit + Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung $τ : U + ⨯ V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit \[ \vec{u}⊗\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v}) \] @@ -110,9 +110,8 @@ wissen, ob sie Null sind oder nicht. für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten. Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren - $\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit - $\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls - überraschend schwer sein. + $\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1⊗\vec{v}_2 = + \vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls überraschend schwer sein. \end{bemerkung} \begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] @@ -144,17 +143,16 @@ hinschreiben können. \begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren] Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare - $a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung + $a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, sodass die folgende Gleichung gilt, \[ \vec{τ} = \sum_i a_i·(\vec{u_i}⊗\vec{v_i}). \] Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden - Index $i$ die Gleichung - $a_i·(\vec{u_i}⊗\vec{v_i}) = (a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht - nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren - schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen - Tensoren schreiben kann. + Index $i$ die Gleichung $a_i·(\vec{u_i}⊗\vec{v_i}) = + (a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht nur richtig, dass ich jeden + Tensor als Linearkombination von reinen Tensoren schreiben kann, es gilt + sogar, dass ich jeden Tensor als Summe von reinen Tensoren schreiben kann. \end{bemerkung} \begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7} @@ -233,7 +231,7 @@ Tensorproduktraum erhält. $(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und beachten, dass für jedes Paar $(i,j) ∈ I⨯ J$ von Indices die Abbildung \[ - s_{ij} : U⨯V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) · + s_{ij} : U ⨯ V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) · \vec{v}^{\:*}_i(\vec{v}) \] bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also diff --git a/16-tensoralgebra.tex b/16-tensoralgebra.tex index 3e2a65c..ec00873 100644 --- a/16-tensoralgebra.tex +++ b/16-tensoralgebra.tex @@ -4,7 +4,7 @@ \chapter{Tensorprodukte mit mehreren Faktoren} \label{sec:tAlg} -\sideremark{Vorlesung 22}Das laufende Kapitel heißt ``Multilineare Algebra'', +\sideremark{Vorlesung 22}Das laufende Kapitel heißt „Multilineare Algebra“, bislang haben wir bei der Diskussion des Tensorprodukts aber nur Bilinearformen betrachtet. Das werden wie jetzt ändern. Die Sätze und Beweise in diesem Abschnitt laufen alle ganz analog zu denen, die wir im vorhergehenden Abschnitt @@ -17,12 +17,12 @@ nennen. \section{Definition, Existenz und Eindeutigkeit} Die Definition des Tensorprodukts von zwei Vektorräumen hängt sehr an unserem -Begriff ``bilineare Abbildung''. Um das Tensorprodukt auch für eine größere -Zahl von Faktoren zu definieren, betrachten wir ganz analog ``multilineare -Abbildungen''. +Begriff „bilineare Abbildung“. Um das Tensorprodukt auch für eine größere Zahl +von Faktoren zu definieren, betrachten wir ganz analog „multilineare +Abbildungen“. \begin{defn}[Multilineare Abbildungen] - Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien seien $W$ und $V_1, …, V_n$ + Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $W$ und $V_1, …, V_n$ jeweils $k$-Vektorräume. Eine Abbildung \[ s: V_1⨯ V_2 ⨯ ⋯ ⨯ V_n → W @@ -36,17 +36,16 @@ Abbildungen''. \end{multline*} \end{defn} -Mit diesem Begriff von ``Multilinearform'' können wir jetzt ganz allgemein +Mit diesem Begriff von „Multilinearform“ können wir jetzt ganz allgemein Tensorprodukte von mehr als zwei Vektorräumen definieren. -\begin{defn}[Tensorprodukt]\label{def:16-1-2} - Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume - $V_1, …, V_n$ gegeben. Ein \emph{Tensorprodukt von - $V_1, …, V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein - Vektorraum $T$ zusammen mit einer multilinearen Abbildung - $τ: V_1 ⨯ ⋯ ⨯ V_n → T$, so dass für alle multilinearen Abbildungen - $s: V_1 ⨯ ⋯ ⨯ V_n → W$ genau eine lineare Abbildung $η: T → W$ existiert, so - dass das folgende Diagramm kommutiert +\begin{defn}[Tensorprodukt]\label{def:16-1-2}% + Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …, + V_n$ gegeben. Ein \emph{Tensorprodukt von $V_1, …, + V_n$}\index{Tensorprodukt!von mehreren Vektorräumen} ist ein Vektorraum $T$ + zusammen mit einer multilinearen Abbildung $τ: V_1 ⨯ ⋯ ⨯ V_n → T$, sodass für + alle multilinearen Abbildungen $s: V_1 ⨯ ⋯ ⨯ V_n → W$ genau eine lineare + Abbildung $η: T → W$ existiert, sodass das folgende Diagramm kommutiert \[ \begin{tikzcd}[column sep=2cm] V_1 ⨯ ⋯ ⨯ V_n \ar[r, "τ\text{, multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\ @@ -58,57 +57,55 @@ Tensorprodukte von mehr als zwei Vektorräumen definieren. Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man Existenz und Eindeutigkeit des Tensorprodukts. -\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3} - Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume - $V_1, …, V_n$ gegeben. Weiter seien $τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_1$ und - $τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen - kanonischen Isomorphismus $T_1 ≅ T_2$. \qed +\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:16-1-3}% + Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …, + V_n$ gegeben. Weiter seien $τ_1 : V_1 ⨯ ⋯ ⨯ V_n → T_1$ und $τ_1 : V_1 ⨯ ⋯ ⨯ + V_n → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus + $T_1 ≅ T_2$. \qed \end{satz} -\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4} - Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume - $V_1, …, V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed +\begin{satz}[Existenz des Tensorproduktes]\label{satz:16-1-4}% + Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …, + V_n$ gegeben. Dann existiert ein Tensorprodukt. \qed \end{satz} -\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren] - Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume - $V_1, …, V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen - wir die Sprache, sprechen von ``dem Tensorprodukt'' und schreiben +\begin{notation}[Notation rund um Tensorprodukte mit mehreren Faktoren]% + Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …, + V_n$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die + Sprache, sprechen von „dem Tensorprodukt“ und schreiben \[ τ : V_1 ⨯ ⋯ ⨯ V_n → V_1 ⊗ ⋯ ⊗ V_n. \] - Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als - $\vec{v}_1 ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als - \emph{rein}\index{Reine Tensoren}. + Wie zuvor schreiben wir die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 + ⊗ ⋯ ⊗ \vec{v}_n$ und bezeichnen diese Tensoren als \emph{rein}\index{Reine + Tensoren}. \end{notation} \begin{notation}[Mehrfache Produkte] - Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz - $V^{⊗ n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ - definieren wir zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen - Vektoren $\vec{v} ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt - $\vec{v} ⊗ ⋯ ⊗ \vec{v}$. + Gegeben einen $k$-Vektorraum $V$ und eine Zahl $n$, schreiben wir kurz $V^{⊗ + n}$ für das $n$-fache Produkt $V ⊗ ⋯ ⊗ V$. Für den Fall $n=0$ definieren wir + zusätzlich: $V⁰ := k$. Entsprechend schreiben wir für einen Vektoren $\vec{v} + ∈ V$ auch $\vec{v}^{⊗ n}$ für das $n$-fache Produkt $\vec{v} ⊗ ⋯ ⊗ \vec{v}$. \end{notation} \section{Assoziativität} -Zusätzlich zu ``Existenz'' und ``Eindeutigkeit'' gibt es beim Tensorprodukt mit +Zusätzlich zu „Existenz“ und „Eindeutigkeit“ gibt es beim Tensorprodukt mit mehreren Faktoren noch eine Frage, die im Fall von zwei Faktoren irrelevant ist: die Assoziativität. Der folgende Satz klärt alles. \begin{satz}[Assoziativität des Tensorproduktes] - Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume - $V_1, …, V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die - Vektorräume + Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es seien $k$-Vektorräume $V_1, …, + V_n$ gegeben. Gegeben einen Index $1 ≤ i < n$, dann sind die Vektorräume \[ V_1 ⊗ ⋯ ⊗ V_n \quad \text{und} \quad V_1 ⊗ ⋯ ⊗ V_{i-1} ⊗ (V_i ⊗ V_{i+1}) ⊗ V_{i+2} ⊗ ⋯ ⊗ V_n \] kanonisch isomorph. \end{satz} \begin{proof} - Ich gebe keinen vollen Beweis sondern diskutiere nur die Idee. Sie sollten an - dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus + Ich gebe keinen vollen Beweis, sondern diskutiere nur die Idee. Sie sollten + an dieser Stelle nicht mehr überrascht sein, dass der kanonische Isomorphismus aus der universellen Eigenschaft kommt! Sei also ein Index $i$ gegeben. Betrachten Sie die Abbildung \[ @@ -144,10 +141,10 @@ jeweils ohne Beweis die wesentlichen Punkte auf. Erzeugendensysteme oder Basen von $V_1 ⊗ ⋯ ⊗ V_n$. \item Gegeben angeordnete Basen von $V_1$, …, $V_n$ dann finden wir eine - lexikographisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$. + lexikografisch angeordnete Basis von $V_1 ⊗ ⋯ ⊗ V_n$. -\item Falls alle $V_{•}$ endlich-dimensional sind, dann ist - $\dim V_1 ⊗ ⋯ ⊗ V_n = \prod_i \dim V_i$ +\item Falls alle $V_{•}$ endlich-dimensional sind, dann ist $\dim V_1 ⊗ ⋯ ⊗ V_n + = \prod_i \dim V_i$. \item Lineare Abbildungen zwischen Vektorräumen induzieren lineare Abbildungen zwischen den Tensorprodukten. @@ -193,13 +190,12 @@ und & (λ,ν) & ↦ & λ·ν. \end{matrix} \] -Diese ``Definitionen'' verwenden die schreckliche Notation~\ref{15-2-7}. -Schauen Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe -nach, dass die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu -zeigen? Die Abbildung $m_{ab}$ sieht ein bisschen aus wie eine -Multiplikationsabbildung. Der relevante Begriff ist der einer $k$-Algebra: dies -ist ein Vektorraum, der um eine mit der Vektorraumstruktur verträgliche -Multiplikation erweitert wurde. +Diese „Definitionen“ verwenden die schreckliche Notation~\ref{15-2-7}. Schauen +Sie sich die Notation noch einmal an und rechnen Sie als Hausaufgabe nach, dass +die Abbildung wohldefiniert ist! Was war dazu noch einmal genau zu zeigen? Die +Abbildung $m_{ab}$ sieht ein bisschen aus wie eine Multiplikationsabbildung. Der +relevante Begriff ist der einer $k$-Algebra: Dies ist ein Vektorraum, der um +eine mit der Vektorraumstruktur verträgliche Multiplikation erweitert wurde. \begin{defn}[Algebra über einem Körper] Es sei $k$ ein Körper. Eine \emph{$k$-Algebra}\index{Algebra} oder @@ -211,20 +207,18 @@ Multiplikation erweitert wurde. Zusätzlich: \begin{itemize} \item Die Algebra heißt \emph{kommutativ}\index{kommutative - Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$, - $\vec{v}_2 ∈ V$ die Gleichheit - $m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, \vec{v}_1)$ gilt. + Algebra}\index{Algebra!kommutativ}, wenn für alle Vektoren $\vec{v}_1$, + $\vec{v}_2 ∈ V$ die Gleichheit $m(\vec{v}_1, \vec{v}_2) = m(\vec{v}_2, + \vec{v}_1)$ gilt. \item Die Algebra heißt \emph{assoziativ}\index{assoziative - Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$, - $\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit - $m\bigl(\vec{v}_1, m(\vec{v}_2, \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, - \vec{v}_2), \vec{v}_3 \bigr)$ gilt. + Algebra}\index{Algebra!assoziativ}, wenn für alle Vektoren $\vec{v}_1$, + $\vec{v}_2$, $\vec{v}_3 ∈ V$ die Gleichheit $m\bigl(\vec{v}_1, m(\vec{v}_2, + \vec{v}_3)\bigr) = m\bigl(m(\vec{v}_1, \vec{v}_2), \vec{v}_3 \bigr)$ gilt. \item Man sagt, die Algebra \emph{besitzt eine Eins}\index{Algebra!mit Eins}, - falls es ein Element $\vec{e} ∈ V$ gibt, so dass für alle Vektoren - $\vec{v} ∈ V$ die Gleichheit - $m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt. + falls es ein Element $\vec{e} ∈ V$ gibt, sodass für alle Vektoren $\vec{v} ∈ + V$ die Gleichheit $m(\vec{e}, \vec{v}) = m(\vec{v}, \vec{e}) = \vec{v}$ gilt. \end{itemize} \end{defn} @@ -244,8 +238,8 @@ Beispiele für Algebren kennen Sie schon. \end{bsp} \begin{bsp}[Matrizen] - Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n⨯ n, k)$, - der Vektorraum der $(n⨯ n)$-Matrizen. Die Abbildung $m$ sei die + Es sei $k$ ein Körper, es sei $n$ eine Zahl und es sei $V := \Mat(n ⨯ n, k)$, + der Vektorraum der $(n ⨯ n)$-Matrizen. Die Abbildung $m$ sei die Matrixmultiplikation. Diese Algebra ist nicht kommutativ, aber assoziativ und besitzt eine Eins. \end{bsp} diff --git a/17-wedge.tex b/17-wedge.tex index 1cc212e..2463358 100644 --- a/17-wedge.tex +++ b/17-wedge.tex @@ -5,37 +5,37 @@ \label{sec:wedge} Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen -in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf -den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau -so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der -Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante +in der Differenzialgeometrie schrecklich wichtig ist: Die äußere Algebra. Auf +den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genauso +langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der Schein +trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht -sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten? +sollte ich noch eine Vorlesung „Lineare Algebra III“ anbieten? \section{Definition, Existenz und Eindeutigkeit} -Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau -so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige -Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche -Abbildungen beschränken, die alternierend sind. +Die äußere Algebra und das äußere Produkt (auch „Dachprodukt“) ist fast genau so +definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige Unterschied +ist, dass wir uns bei den multilinearen Abbildungen auf solche Abbildungen +beschränken, die alternierend sind. -\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1} - Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei - $n ∈ ℕ$ eine Zahl. Eine multilineare Abbildung +\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}% + Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei $n + ∈ ℕ$ eine Zahl. Eine multilineare Abbildung \[ s : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → W \] heißt \emph{alternierend}\index{alternierende multilineare - Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung + Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung \begin{equation}\label{eq:dfjgh} s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W \end{equation} für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein - Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt - alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel - $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei - unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$. + Vektor mal auftritt. Formell: die multilineare Abbildung $s$ heißt + alternierend falls die Gleichung~\eqref{eq:dfjgh} für jedes Tupel $(\vec{v}_1, + …, \vec{v}_n)$ von Vektoren gilt, für das es zwei unterschiedliche Indizes $i + \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$. \end{defn} \begin{beobachtung} @@ -56,7 +56,7 @@ Abbildungen beschränken, die alternierend sind. \begin{prov} Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von - ``alternierende Multilineare Abbildung'' nehmen? + „alternierende Multilineare Abbildung“ nehmen? \end{prov} \begin{notation}[Produkte] @@ -68,9 +68,9 @@ Abbildungen beschränken, die alternierend sind. \begin{bsp}[Determinante] Es sei $k$ ein Körper und es sei $n ∈ ℕ$ eine Zahl. Betrachte Matrizen als - Tupel von Spaltenvektoren und identifiziere so den Vektorraum - $\Mat(n⨯ n, k)$ der $(n⨯ n)$-Matrizen mit dem Vektorraum - $k^n⨯ ⋯ ⨯ k^n$. Dann ist die Determinantenabbildung + Tupel von Spaltenvektoren und identifiziere so den Vektorraum $\Mat(n⨯ n, k)$ + der $(n⨯ n)$-Matrizen mit dem Vektorraum $k^n⨯ ⋯ ⨯ k^n$. Dann ist die + Determinantenabbildung \[ \det : k^n⨯ ⋯ ⨯ k^n → k \] @@ -79,20 +79,20 @@ Abbildungen beschränken, die alternierend sind. \begin{bsp}[Kreuzprodukt] Das von Physiker geliebte - \href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem - $ℝ³$} ist eine alternierende multilineare Abbildung. + \href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem $ℝ³$} + ist eine alternierende multilineare Abbildung. \end{bsp} Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von Vektorräumen definieren. -\begin{defn}[Äußeres Produkt]\label{def:17-1-4} - Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$ - gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder - \emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ - zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, so - dass für alle multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare - Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert +\begin{defn}[Äußeres Produkt]\label{def:17-1-4} Es sei $k$ ein Körper, es sei $n + ∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Ein \emph{$n$.tes äußeres + Produkt}\index{äußeres Produkt} oder \emph{$n$.tes + Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ zusammen mit + einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, sodass für alle + multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare Abbildung $η: T → + W$ existiert, sodass das folgende Diagramm kommutiert \[ \begin{tikzcd}[column sep=4cm] V^{⨯ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\ @@ -104,45 +104,42 @@ Vektorräumen definieren. Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man Existenz und Eindeutigkeit des äußeren Produktes. -\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6} +\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}% Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Weiter seien $τ_1 : V^{⨯n} → T_1$ und $τ_1 : V^{⨯n} → T_2$ zwei - $n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus - $T_1 ≅ T_2$. \qed + $n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $T_1 ≅ + T_2$. \qed \end{satz} -\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9} +\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}% Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed \end{satz} -\begin{notation}[Notation rund um äußere Produkte] +\begin{notation}[Notation rund um äußere Produkte]% Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die - Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben + Sprache, sprechen von „dem $n$.ten äußeren Produkt“ und schreiben \[ τ : V^{⨯n} → \bigwedge^n V. \] - Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben - die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als - $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von - $Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von - \emph{reinen Dächern}\index{reine Dächer}. + Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben die + Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und + bezeichnen diese Elemente von $Λ^n V$ als \emph{rein}. Etwas + umgangssprachlich spricht man von \emph{reinen Dächern}\index{reine Dächer}. \end{notation} -\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11} - Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber - jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen - Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß - Definition~\ref{def:17-1-1} die folgenden Regeln. +\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}% + Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber jedes + Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Dächern + $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß Definition~\ref{def:17-1-1} die + folgenden Regeln. \begin{itemize} - \item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit - $\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ - gleich $\vec{0}_{Λ^n V}$. + \item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit $\vec{v}_i = + \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gleich $\vec{0}_{Λ^n V}$. - \item Für jede Permutation $ρ ∈ S_n$ ist - $\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯ - Λ \vec{v}_{ρ(n)}$. + \item Für jede Permutation $ρ ∈ S_n$ ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n = + \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯ Λ \vec{v}_{ρ(n)}$. \end{itemize} \end{beobachtung} @@ -163,9 +160,8 @@ Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen. \end{beobachtung} Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz -schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa -$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine -Basis von $(ℝ²)^{⊗ 2}$ durch die Menge +schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa $\{ \vec{e}_1, \vec{e}_2\} ⊂ +ℝ²$ die Einheitsbasis ist, dann ist eine Basis von $(ℝ²)^{⊗ 2}$ durch die Menge \[ \{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2 ⊗ \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2} @@ -184,14 +180,12 @@ Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet. -In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen -Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …) -verzichte ich darauf. +Normalerweise würde ich an dieser Stelle einen sehr ausführlichen Beweis geben. +In unserer speziellen Situation (Ende des Semesters, …) verzichte ich darauf. -\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2} - In der Situation von Definition~\ref{def:17-1-4} sei - $E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann - ist die Menge +\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}% + In der Situation von Definition~\ref{def:17-1-4} sei $E = \{ \vec{v}_1, …, + \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann ist die Menge \[ \{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \} \] @@ -199,7 +193,7 @@ verzichte ich darauf. \end{satz} \begin{bemerkung} - In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen + In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikografisch anordnen sollte! \end{bemerkung} @@ -223,8 +217,8 @@ verzichte ich darauf. Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2} definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen -$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir -wie folgt eine Abbildung +$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir wie +folgt eine Abbildung \[ \begin{matrix} m_{ab} : & Λ^a V ⨯ Λ^b V & → & Λ^{a+b} V \\ @@ -252,7 +246,7 @@ und & (λ,ν) & ↦ & λ·ν. \end{matrix} \] -Diese ``Definitionen'' verwenden die analog die schreckliche +Diese „Definitionen“ verwenden die analog die schreckliche Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung wohldefiniert ist! Jetzt definieren wir die äußere Algebra. @@ -275,8 +269,8 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra. \begin{bemerkung} Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz - dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ - sobald $n>\dim V$ ist. Also ist + dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ sobald + $n>\dim V$ ist. Also ist \[ \dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=} 2^{\dim V}. @@ -290,11 +284,10 @@ wohldefiniert ist! Jetzt definieren wir die äußere Algebra. Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen eine Abbildung zwischen den Dachprodukten induziert. -\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva} +\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}% Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl - $n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau - einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende - Diagramm kommutiert, + $n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau einen + Endomorphismus $η : Λ^n V → Λ^n V$, sodass das folgende Diagramm kommutiert, \[ \begin{tikzcd}[column sep=2cm] V^{⨯ n} \ar[d, "τ"'] \ar[r, "f ⨯ ⋯ ⨯ f"] & V^{⨯ n} \ar[d, "τ"] \\ @@ -304,9 +297,9 @@ eine Abbildung zwischen den Dachprodukten induziert. Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet. \end{satz} \begin{proof} - Hier ist fast nichts zu zeigen. Die Abbildung - $τ◦(f ⨯ ⋯ ⨯ f)$ ist alternierend und multilinear. Also - existiert die Abbildung $η$ entsprechend der universellen Eigenschaft. + Hier ist fast nichts zu zeigen. Die Abbildung $τ◦(f ⨯ ⋯ ⨯ f)$ ist + alternierend und multilinear. Also existiert die Abbildung $η$ entsprechend + der universellen Eigenschaft. \end{proof} \begin{bemerkung} @@ -321,18 +314,18 @@ Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt, warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf geht's. -\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3} +\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}% Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum, - mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren - $\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das - Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt. + mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren $\vec{v}_1, …, + \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das Dachprodukt $\vec{v}_1 + Λ ⋯ Λ \vec{v}_k$ wie folgt. \begin{itemize} \item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten, - $\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix - $A := (a_{ij}) ∈ \Mat(n⨯ k, k)$. - \item Gegeben Indizes $i_1 < ⋯ < i_k$, sei - $A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$ die Matrix, die aus den Spalten - $i_1, …,i_k$ der Matrix $A$ besteht. + $\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $A := + (a_{ij}) ∈ \Mat(n⨯ k, k)$. + + \item Gegeben Indizes $i_1 < ⋯ < i_k$, sei $A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$ + die Matrix, die aus den Spalten $i_1, …,i_k$ der Matrix $A$ besteht. \end{itemize} Dann ist \[ @@ -342,11 +335,9 @@ geht's. \] \end{satz} \begin{proof} - Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt - ausrechnen, was der Koeffizient von - $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in - $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts - besseres ein, als das Produkt + Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt ausrechnen, was + der Koeffizient von $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in $\vec{v}_1 Λ ⋯ Λ + \vec{v}_k$. Dazu fällt mir (leider!) nichts Besseres ein, als das Produkt \[ \vec{v}_1 Λ ⋯ Λ \vec{v}_k % = \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n @@ -361,7 +352,7 @@ geht's. & = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\ & = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\ & = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\ - & = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) + & = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}). \end{align*} Damit ist der Satz dann wohl bewiesen. \end{proof} @@ -382,12 +373,11 @@ geht's. Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von -Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, -$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist -eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung -ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: -``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese -Frage. +Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, $n := \dim +V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist eine +lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung ist +aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: „Was ist +$λ$?“ Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage. \begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1} In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann @@ -398,16 +388,16 @@ Frage. \end{kor} Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der -Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der -Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als +Determinante. Da Determinanten extrem eng mit dem Begriff „Volumen“ aus der +Differenzialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als geometrische Aussage. \subsection{Die Koeffizienten des charakteristischen Polynoms} Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von -``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer -Matrix $A ∈ \Mat(n⨯ n,k)$ diskutiert, +„Lineare Algebra I“? Dort hatten wir das charakteristische Polynom einer Matrix +$A ∈ \Mat(n ⨯ n,k)$ diskutiert, \[ χ_A(t) = \det\left(A-t·\Id \right) = (-1)^n·\left(t^n+a_1(A)·t^{n-1}+ ⋯ + a_{n-1}(A)·t + a_n(A) \right). @@ -417,15 +407,15 @@ Wir hatten staunend festgestellt, dass die Funktionen a_i : \Mat(n⨯ n, k) → k \] auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle - $A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und +$A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals -konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass +konnten wir nur zwei dieser Zahlen ausrechnen: Wir hatten gesehen, dass \[ a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A) \] -ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen! +ist. Mithilfe des Dachproduktes können wir alle $a_i$ verstehen! -\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms] +\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]% Es sei $k$ ein Körper, es sei $n ∈ ℕ$, es sei $V$ ein $n$-dimensionaler $k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische Polynom von $f$ als @@ -455,7 +445,7 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen! \vdots & \ddots \\ & & & & a_{(n-1)n}\\ a_{n1} & ⋯ & & a_{n(n-1)} & a_{nn}-t - \end{pmatrix} + \end{pmatrix}. \] Das charakteristische Polynom ist dann die Determinante von $B$, also \begin{equation}\label{eq:xcydfg} @@ -492,10 +482,10 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen! \noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern - wir noch einmal daran, dass die Dachprodukte - $(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von - $Λ^k V$ bilden. Gegeben also ein solches Basiselement - $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3} + wir noch einmal daran, dass die Dachprodukte $(\vec{e}_{i_1} Λ ⋯ Λ + \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von $Λ^k V$ bilden. Gegeben + also ein solches Basiselement $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist + nach Satz~\ref{satz:17-4-3} \begin{align*} (Λ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\ & = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k})·\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\ @@ -513,8 +503,8 @@ ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen! \noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche \eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$ - aus Satz~\ref{satz:17-4-3} genau gleich der Matrix - $\widetilde{A}^{i_1, …, i_k}$ ist. + aus Satz~\ref{satz:17-4-3} genau gleich der Matrix $\widetilde{A}^{i_1, …, + i_k}$ ist. \end{proof} % !TEX root = LineareAlgebra2 diff --git a/18-dehn.tex b/18-dehn.tex index 30104d6..1e3d0c3 100644 --- a/18-dehn.tex +++ b/18-dehn.tex @@ -6,33 +6,31 @@ \marginpar{Vorlesung 24}Auf dem zweiten internationalen Mathematikerkongress im August 1900 in Paris hielt David Hilbert\footnote{\href{https://de.wikipedia.org/wiki/David_Hilbert}{David - Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen) - war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch -breit gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste - von 23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag -beim Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen -Probleme als äußerst einflussreich für die Entwicklung der Mathematik im -20.~Jahrhundert. +Hilbert} (* 23. Januar 1862 in Königsberg; † 14. Februar 1943 in Göttingen) +war ein deutscher Mathematiker.} einen Vortrag, in dem er eine thematisch breit +gefächerte \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme}{Liste von +23 ungelösten mathematischen Problemen} präsentierte. Obwohl sein Vortrag beim +Publikum wohl nicht gut ankam, erwies sich die Liste der Hilbert'schen Probleme +als äußerst einflussreich für die Entwicklung der Mathematik im 20.~Jahrhundert. \section{Hilbert's drittes Problem} In \href{https://de.wikipedia.org/wiki/Hilbertsche_Probleme#Hilberts_drittes_Problem}{Hilbert's - drittem Problem} geht es um folgende Frage: gegeben sind zwei +drittem Problem} geht es um folgende Frage: gegeben sind zwei \href{https://de.wikipedia.org/wiki/Polyeder}{Polyeder} $P_1$ und $P_2$ im Raum -$ℝ³$. Ich möchte den ersten Polyeder $P_1$ durch gerade Schnitte in ein -Puzzle zerlegen, aus dem sich der zweite Polyeder $P_2$ zusammensetzen lässt. -Kann ich entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die -Polyeder $P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} -sind. +$ℝ³$. Ich möchte das erste Polyeder $P_1$ durch gerade Schnitte in ein Puzzle +zerlegen, aus dem sich das zweite Polyeder $P_2$ zusammensetzen lässt. Kann ich +entscheiden, ob das möglich ist? In Schlausprech frage ich, ob die Polyeder +$P_1$ und $P_2$ \emph{zerlegungsgleich}\index{Zerlegungsgleichheit} sind. Um es vorweg zu nehmen: Hilbert's Frage ist heute vollständig beantwortbar. Wir werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar. \begin{beobachtung} Falls das Volumen der Polyeder $P_1$ und $P_2$ nicht übereinstimmt, dann ist - die Antwort ``Nein!'' + die Antwort „Nein!“ \end{beobachtung} \begin{notation} @@ -48,23 +46,23 @@ werden hier nur eine Teilantwort diskutieren. Eines ist von vornherein klar. Schauen Sie zum Thema Invarianten einmal in \href{https://www.quantamagazine.org/math-invariants-helped-lisa-piccirillo-solve-conway-knot-problem-20200602/}{diesen - lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen -haben, können sie nicht zerlegungsgleich sein. Invarianten können uns also -helfen, für gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf -Hilbert's Frage zu geben. +lesenswerten Artikel}. Wenn also zwei Polyeder unterschiedliches Volumen haben, +können sie nicht zerlegungsgleich sein. Invarianten können uns also helfen, für +gegebene Polyeder $P_1$ und $P_2$ eine negative Antwort auf Hilbert's Frage zu +geben. \section{Die Dehn-Invariante} Es wird Sie vielleicht nicht sehr überraschen, dass es Polyeder $P_1$ und $P_2$ mit gleichem Volumen gibt, die aber nicht zerlegungsgleich sind. Die Invariante -``Volumen'' ist also nicht fein genug um Hilbert's Frage vollständig zu +„Volumen“ ist also nicht fein genug um Hilbert's Frage vollständig zu beantworten. Aus diesem Grund konstruierte Max Dehn\footnote{\href{https://de.wikipedia.org/wiki/Max_Dehn}{Max Wilhelm Dehn} (* - 13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North - Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter - Anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität - Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so +13. November 1878 in Hamburg; † 27. Juni 1952 in Black Mountain, North +Carolina) war ein deutsch-amerikanischer Mathematiker. Er studierte unter +anderem an der \href{http://www.uni-freiburg.de}{Albert-Ludwigs-Universität +Freiburg}.} eine weitere, sehr interessante Invariante, die nicht so offensichtlich ist, wie das Volumen. Die \emph{Dehn-Invariante}\index{Dehn-Invariante} ist eine Abbildung \[ @@ -87,10 +85,10 @@ $ℚ$. Elemente sind zum Beispiel die Zahlen $1$, $\sqrt{2}$ oder die Kreiszahl $π$. Dieser Vektorraum ist natürlich unendlich-dimensional. \begin{bemerkung} - Um mit dem $ℚ$-Vektorraum $ℝ$ warm zu werden, fragen wir: ist die Menge - $\{ 1, \sqrt{2}\}$ $ℚ$-linear unabhängig? Die Antwort ist ``Nein!'' Denn - falls es zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale - $ℚ$-lineare Relation gäbe, + Um mit dem $ℚ$-Vektorraum $ℝ$ warmzuwerden, fragen wir: ist die Menge $\{ 1, + \sqrt{2}\}$ $ℚ$-linear unabhängig? Die Antwort ist „Nein!“, denn falls es + zwischen den Zahlen $1$ und $\sqrt{2}$ eine nicht-triviale $ℚ$-lineare + Relation gäbe, \[ p · 1 + q · \sqrt{2} = 0, \] @@ -98,10 +96,10 @@ $π$. Dieser Vektorraum ist natürlich unendlich-dimensional. aber schon, dass $\sqrt{2}$ irrational ist. \end{bemerkung} -Um jetzt den $ℚ$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl -$π$ erzeugten $ℚ$-Untervektorraum $\langle π \rangle ⊂ ℝ$. Weiter -betrachten wir den Quotientenvektorraum $\factor{ℝ}{\langle π \rangle}$. Der -Vektorraum $V$ von Max Dehn ist dann gleich dem Tensorprodukt, +Um jetzt den $ℚ$-Vektorraum $V$ zu konstruieren, betrachte den von der Zahl $π$ +erzeugten $ℚ$-Untervektorraum $\langle π \rangle ⊂ ℝ$. Weiter betrachten wir +den Quotientenvektorraum $\factor{ℝ}{\langle π \rangle}$. Der Vektorraum $V$ +von Max Dehn ist dann gleich dem Tensorprodukt, \[ V = ℝ ⊗ \left(\factor{ℝ}{\langle π \rangle}\right). \] @@ -110,20 +108,20 @@ Dies ist ein Tensorprodukt von $ℚ$-Vektorräumen, also selbst ein $ℚ$-Vektor \subsection{Konstruktion der Invariante} -Als nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$ +Als Nächstes müssen wir die Abbildung $\operatorname{dehn} : \Pi → V$ konstruieren; wir müssen also jedem Polyeder $P ⊂ ℝ³$ ein Element des Vektorraumes $V$ zuordnen. Sei also ein Polyeder $P$ gegeben. Wir bezeichnen die Kanten des Polyeders $P$ mit $E_1, …, E_n$ und die Längen der Kanten mit -$ℓ(E_1)$, …, $ℓ(E_n)$; dies sind positive reelle Zahlen. An jeder Kante -kommen zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit +$ℓ(E_1)$, …, $ℓ(E_n)$; dies sind positive reelle Zahlen. An jeder Kante kommen +zwei Flächen zusammen, wir bezeichnen den Winkel zwischen den Flächen mit $α(E_1)$, …, $α(E_n)$; dabei verwenden wir wie in der Mathematik üblich das -Bogenmaß. Nach diesen Vorbereitung definieren wir das die Dehn-Invariante von +Bogenmaß. Nach diesen Vorbereitungen definieren wir das die Dehn-Invariante von $P$ schließlich als \[ \operatorname{dehn}(P) := \sum_{k=1}^{n} ℓ(E_k) ⊗ α (E_k). \] -Wir werden gleich zeigen, dass dies tatsächlich eine Invariante -definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel. +Wir werden gleich zeigen, dass dies tatsächlich eine Invariante definiert. +Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel. \begin{beobachtung} Kongruente Polyeder haben dieselbe Dehn-Invariante. \qed @@ -228,7 +226,7 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel. \item Kanten, die vollständig in $P_1$ oder in $P_2$ liegen (in der Abbildung grün). \item Kanten, die bei der Zerlegung von $P$ zerschnitten werden (in der - Abbildung schwarz). + Abbildung schwarz). \end{itemize} Nach Umnummerierung können wir ohne Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_b$ grün und dass die Kanten $E_{b+1}$, …, $E_n$ @@ -236,34 +234,34 @@ definiert. Vorher aber kommt noch eine triviale Beobachtung und ein Beispiel. gibt es drei unterschiedliche Arten von Kanten. \begin{itemize} \item Die grünen Kanten $E_1$, …, $E_b$. Nach Umnummerierung können wir ohne - Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$ - Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ - Kanten des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ - und $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder - bezeichnen, dann gelten die Gleichungen - \begin{equation} - \begin{matrix} - α(E_1) = α¹(E_1) & … & α(E_a) = α¹(E_a) \\ - α(E_{a+1}) = α²(E_{a+1}) & … & α(E_b) = α²(E_b) - \end{matrix} - \end{equation} + Einschränkung der Allgemeinheit annehmen, dass die Kanten $E_1$, …, $E_a$ + Kanten des Teilpolyeders $P_1$ und dass die Kanten $E_{a+1}$, …, $E_b$ Kanten + des Teilpolyeders $P_1$ sind. Wenn wir mit $α¹(E_1)$, …, $α¹(E_a)$ und + $α²(E_{a+1})$, …, $α²(E_b)$ die Winkel der Flächen der Teilpolyeder + bezeichnen, dann gelten die Gleichungen + \begin{equation} + \begin{matrix} + α(E_1) = α¹(E_1) & … & α(E_a) = α¹(E_a) \\ + α(E_{a+1}) = α²(E_{a+1}) & … & α(E_b) = α²(E_b) + \end{matrix} + \end{equation} \item Teilstücke von schwarzen Kanten. Wenn wir die Teilstücke der schwarzen - Kante $E_{•}$ mit $E¹_{•}$ und $E²_{•}$ bezeichnen, dann - gilt für die Längen und für die Winkel - \begin{equation} - \begin{aligned} - ℓ(E_{•}) & = ℓ¹(E¹_{•}) + ℓ²(E²_{•}) \\ - α(E_{•}) & = α¹(E¹_{•}) = α²(E²_{•}) - \end{aligned} - \end{equation} + Kante $E_{•}$ mit $E¹_{•}$ und $E²_{•}$ bezeichnen, dann gilt für die Längen + und für die Winkel + \begin{equation} + \begin{aligned} + ℓ(E_{•}) & = ℓ¹(E¹_{•}) + ℓ²(E²_{•}) \\ + α(E_{•}) & = α¹(E¹_{•}) = α²(E²_{•}). + \end{aligned} + \end{equation} \item Schließlich gibt es noch Kanten, die durch das Zerlegen neu - hinzugekommen sind. Eine solche Kante tritt immer zwei mal auf: ein mal in - $P_1$ und ein mal in $P_2$. Wir bezeichnen diese Kanten mit $E¹_{n+1}$, + hinzugekommen sind. Eine solche Kante tritt immer zweimal auf: einmal in + $P_1$ und einmal in $P_2$. Wir bezeichnen diese Kanten mit $E¹_{n+1}$, $E²_{n+1}$, …, $E¹_m$, $E²_m$. Es gilt für jeden Index $i > n$ \begin{equation} - ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π + ℓ¹(E¹_i) = ℓ²(E²_i) \quad\text{und}\quad α¹(E¹_i) + α²(E²_i) = π. \end{equation} \end{itemize} Mit diesen Bezeichnungen ist