@@ -15,12 +15,12 @@ mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise.
\begin { defn} [Tensorprodukt]
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Ein
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei $ k $ -Vektorräume. Ein
\emph { Tensorprodukt} \index { Tensorprodukt!von Vektorräumen} von $ U $ und $ V $ ist
ein $ k $ -Vektorraum $ T $ zusammen mit einer bilineare Abbildung $ τ: U⨯ V → T $ , so
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $ s: U⨯ V → W$
gibt es genau eine lineare Abbildung $ η: T → W $ , so dass das folgende Diagramm
kommutiert:
ein $ k $ -Vektorraum $ T $ zusammen mit einer bilineare Abbildung $ τ: U ⨯ V → T $ ,
so dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $ s: U ⨯ V →
W $ gibt es genau eine lineare Abbildung $ η: T → W $ , so dass das folgende
Diagramm kommutiert:
\[
\begin { tikzcd } [ column sep = 2 cm ]
U⨯ V \ar [ r, "τ \text { , bilinear } " ] \ar [ d, equal ] & T \ar [ d, "∃ ! η \text { , linear } " ] \\
@@ -33,7 +33,7 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin { satz} [Eindeutigkeit des Tensorproduktes]\label { satz:15-1-2}
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Weiter
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei $ k $ -Vektorräume. Weiter
seien $ τ _ 1 : U⨯ V → T _ 1 $ und $ τ _ 1 : U⨯ V → T _ 2 $ zwei Tensorprodukte. Dann
gibt es einen kanonischen Isomorphismus $ T _ 1 ≅ T _ 2 $ .
\end { satz}
@@ -44,33 +44,33 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin { satz} [Eindeutigkeit des Tensorproduktes]\label { satz:15-1-3}
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Dann
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei $ k $ -Vektorräume. Dann
existiert ein Tensorprodukt.
\end { satz}
\begin { proof}
\video { 21-2}
\end { proof}
\begin { notation} [Tensorproduktraum]\label { not:15-1-3}
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Wegen
\begin { notation} [Tensorproduktraum]\label { not:15-1-3} %
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei $ k $ -Vektorräume. Wegen
Satz~\ref { satz:15-1-2} und Satz~\ref { satz:15-1-3} werde ich (unter leichtem
Missbrauch der Sprache) von \emph { dem Tensorprodukt} sprechen und jede
Tensorproduktraum mit $ U⊗V $ bezeichnen. Die Elemente von $ U⊗V $ heißen in der
Literatur oft \emph { Tensoren} \index { Tensor} .
\end { notation}
\begin { notation} [Produkt von Vektoren]\label { not:15-1-4a}
\begin { notation} [Produkt von Vektoren]\label { not:15-1-4a} %
In der Situation von Notation~\ref { not:15-1-3} seien Vektoren $ \vec { u } ∈ U $
und $ \vec { v } ∈ V $ gegeben. Dann wird der Tensor
$ τ \bigl ( ( \vec { u } , \vec { v } ) \bigr ) ∈ U⊗V $ auch \emph { Tensorprodukt der
Vektoren $ \vec { u } $ und $ \vec { v } $ } \index { Tensorprodukt!von Vektoren} genannt
und mit $ \vec { u } ⊗ \vec { v } $ bezeichnet.
und $ \vec { v } ∈ V $ gegeben. Dann wird der Tensor $ τ \bigl ( ( \vec { u } , \vec { v } )
\bigr ) ∈ U⊗V $ auch \emph { Tensorprodukt der Vektoren $ \vec { u } $ und
$ \vec { v } $ } \index { Tensorprodukt!von Vektoren} genannt und mit $ \vec { u } ⊗ \vec { v } $
bezeichnet.
\end { notation}
\begin { aufgabe} [Machen Sie sich mit Tensorprodukten vertraut!]
Betrachten Sie den Vektorraum $ ℝ² $ mit der Standardbasis
$ \{ \vec { e } _ 1 , \vec { e } _ 2 \} $ und beweisen Sie direkt mit H ilfe der Definition,
dass die Tensoren
\begin { aufgabe} [Machen Sie sich mit Tensorprodukten vertraut!]%
Betrachten Sie den Vektorraum $ ℝ² $ mit der Standardbasis $ \{ \vec { e } _ 1 ,
\vec { e } _ 2 \} $ und beweisen Sie direkt mith ilfe der Definition, dass die
Tensoren
\[
\vec { e } _ 1 ⊗ \vec { e } _ 1 , \quad \vec { e } _ 1 ⊗ \vec { e } _ 2 , \quad \vec { e } _ 2 ⊗ \vec { e } _ 1 ,
\quad \text { und } \quad \vec { e } _ 2 ⊗ \vec { e } _ 2
@@ -83,15 +83,15 @@ Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
$ T $ ; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente
der Form $ \vec { u } ⊗ \vec { v } $ --- von denen wir aber im Moment noch nicht einmal
überhaupt hat. Die einzigen Elemente , die wir direkt sehen, sind Elemente der
Form $ \vec { u } ⊗ \vec { v } $ --- von denen wir aber im Moment noch nicht einmal
wissen, ob sie Null sind oder nicht.
\begin { notation} [Reine Tensor]\label { not:15-1-4b}
\begin { notation} [Reine Tensor]\label { not:15-1-4b} %
In der Situation von Notation~\ref { not:15-1-3} sei ein Tensor $ \vec { τ } ∈ U⊗V $
gegeben. Man nennt $ \vec { τ } $ einen \emph { reinen
Tensor} \index { Tensor!reiner} \index { reiner Tensor} , wenn es Vektoren
$ \vec { u } ∈ U $ und $ \vec { v } ∈ V $ gibt, so dass $ \vec { τ } = \vec { u } ⊗ \vec { v } $ ist.
Tensor} \index { Tensor!reiner} \index { reiner Tensor} , wenn es Vektoren $ \vec { u } ∈
U $ und $ \vec { v } ∈ V $ gibt, sodass $ \vec { τ } = \vec { u } ⊗ \vec { v } $ ist.
\end { notation}
\begin { bemerkung} [Darstellung von reinen Tensoren ist nicht eindeutig]
@@ -116,12 +116,11 @@ wissen, ob sie Null sind oder nicht.
\end { bemerkung}
\begin { aufgabe} [Machen Sie sich mit Tensorprodukten vertraut!]
Beweisen Sie, dass der Tensor
$ \vec { e } _ 1 ⊗ \vec { e } _ 1 + \vec { e } _ 2 ⊗ \vec { e } _ 2 ∈ ℝ² ⊗ ℝ² $ \emph { kein} reiner
Tensor ist! Finden Sie unterschiedliche Vektoren $ \vec { v } _ 1 $ ,
$ \vec { v } _ 2 ∈ ℝ² $ , so dass die Gleichheit
$ \vec { v } _ 1 ⊗ \vec { v } _ 2 = \vec { v } _ 2 ⊗ \vec { v } _ 1 $ gilt! Finden Sie Vektoren, so
dass die Gleichheit nicht gilt!
Beweisen Sie, dass der Tensor $ \vec { e } _ 1 ⊗ \vec { e } _ 1 + \vec { e } _ 2 ⊗ \vec { e } _ 2 ∈ ℝ²
⊗ ℝ² $ \emph { kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren
$ \vec { v } _ 1 $ , $ \vec { v } _ 2 ∈ ℝ² $ , sodass die Gleichheit $ \vec { v } _ 1 ⊗ \vec { v } _ 2 =
\vec { v } _ 2 ⊗ \vec { v } _ 1 $ gilt! Finden Sie Vektoren , sodass die Gleichheit nicht
gilt!
\end { aufgabe}
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
@@ -130,7 +129,7 @@ Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
hinschreiben können.
\begin { satz} [Reine Tensoren erzeugen des Tensorprodukt]\label { satz:15-2-5}
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Dann
Es sei $ k $ ein Körper $ U $ und $ V $ zwei $ k $ -Vektorräume. Dann
ist die Menge der reinen Tensoren,
\[
R : = \{ \vec { u } ⊗ \vec { v } ∈ U⊗ V \: | \: \vec { u } ∈ U \text { und } \vec { v } ∈
@@ -167,9 +166,9 @@ hinschreiben können.
Ψ: U⊗V → X, \quad \vec { u } ⊗ \vec { v } ↦ ( \text { Formel mit } \vec { u } \text { und } \vec { v } ) .
\]
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
Gemeint ist mit dieser `` Definition'' folgendes: gegeben einen Tensor
$ \vec { τ } ∈ U⊗V $ , schreibe $ \vec { τ } $ auf irgendeine Weise als Linearkombination
von reinen Tensoren,
Gemeint ist mit dieser „ Definition“ folgendes: gegeben einen Tensor $ \vec { τ } ∈
U⊗V $ , schreibe $ \vec { τ } $ auf irgendeine Weise als Linearkombination von reinen
Tensoren,
\[
\vec { τ } = \sum a _ i· \vec { v } _ i⊗ \vec { w } _ i
\]
@@ -178,11 +177,11 @@ hinschreiben können.
Ψ ( \vec { τ } ) : = \sum a _ i· Ψ ( \vec { v } _ i⊗ \vec { w } _ i ) .
\]
Das kann man das als Definition einer linearen Abbildung $ Ψ $ akzeptieren, wenn
man sich zuerst von der \emph { Wohldefiniert} überzeugt hat: d er so
`` definierte'' Wert von $ Ψ ( \vec { τ } ) $ darf nicht von der Wahl der
man sich zuerst von der \emph { Wohldefiniert} überzeugt hat: D er so
„ definierte“ Wert von $ Ψ ( \vec { τ } ) $ darf nicht von der Wahl der
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
f olge.
F olge.
\end { notation}
@@ -193,7 +192,7 @@ Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beide
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
Tensorproduktraum erhält.
\begin { kor} [Erzeugendensystem für Tensorprodukt]\label { kor:15-2-6}
\begin { kor} [Erzeugendensystem für Tensorprodukt]\label { kor:15-2-6} %
In der Situation von Satz~\ref { satz:15-2-5} seien $ ( \vec { u } _ i ) _ { i ∈ I } ⊂ U $
und $ ( \vec { v } _ j ) _ { j ∈ J } ⊂ V $ jeweils Erzeugendensysteme. Dann ist die
folgende Menge von reinen Tensoren,
@@ -217,7 +216,7 @@ Tensorproduktraum erhält.
\vec { u} ⊗\vec { v} & = \left (\sum _ { i ∈ I} a_ i·\vec { u} _ i \right )⊗\vec { v} & & \text { Einsetzen} \\
& = \sum _ { i ∈ I} a_ i·\big ( \vec { u} _ i⊗\vec { v} \big ) & & \text { Linearität von $ τ $ in 1.~Komponente} \\
& = \sum _ { i ∈ I} a_ i·\Big ( \vec { u} _ i⊗\Big ( \sum _ { j ∈ J} b_ j·\vec { v} _ j \Big ) \Big ) & & \text { Einsetzen} \\
& = \sum _ { (i,j) ∈ I⨯ J} a_ ib_ j· \big (\vec { u} _ i⊗\vec { b} _ j \big ). & & \text { Linearität von $ τ $ in 2.~Komponente}
& = \sum _ { (i,j) ∈ I⨯ J} a_ ib_ j· \big (\vec { u} _ i⊗\vec { b} _ j \big ) & & \text { Linearität von $ τ $ in 2.~Komponente} .
\end { align*}
Das beweist die Behauptung.
\end { proof}
@@ -238,7 +237,7 @@ Tensorproduktraum erhält.
\vec { v } ^ { \: * } _ i ( \vec { v } )
\]
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
eine lineare Abbildung $ η _ { ij } : U⊗V → k $ , so dass für alle $ ( α ,β) ∈ I⨯ J $ gilt
eine lineare Abbildung $ η _ { ij } : U⊗V → k $ , sodass für alle $ ( α ,β) ∈ I⨯ J $ gilt
\begin { align*}
η_ { ij} (\vec { u} _ α⊗\vec { v} _ β) & = s_ { ij} \bigl ((\vec { u} _ α , \vec { v} _ β)\bigr ) & & \text { univ.~Eigenschaft} \\
& = \vec { u} ^ { \: * } _ i(\vec { u} _ α ) · \vec { v} ^ { \: * } _ i(\vec { v} _ β) & & \text { Definition von } s_ { ij} \\
@@ -254,13 +253,13 @@ Tensorproduktraum erhält.
0_ k & = η_ { ij} \bigl (\vec { 0} _ { U⊗V} \bigr ) \\
& = η_ { ij} \left ( \sum _ { (α ,β) ∈ I⨯ J} a_ { αβ} · \vec { u} _ α⊗\vec { v} _ β \right ) & & \text { Relation \eqref { eq:fgh} eingesetzt} \\
& = \sum _ { (α ,β) ∈ I⨯ J} a_ { αβ} ·η_ { ij} \big ( \vec { u} _ α⊗\vec { v} _ β \big ) & & \text { Linearität von } η_ { ij} \\
& = a_ { ij}
& = a_ { ij} .
\end { align*}
Damit ist die Relation \eqref { eq:fgh} offenbar trivial.
\end { proof}
\begin { kor} [Dimensionsformel für Tensorprodukte]
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei endlich-dimensionale
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei endlich-dimensionale
$ k $ -Vektorräume. Dann ist $ \dim ( U⊗V ) = ( \dim U ) · ( \dim V ) $ . \qed
\end { kor}
@@ -269,7 +268,7 @@ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
Basen.
\begin { konstruktion} [Lexikografisch angeordnete Basen für Tensorprodukte]
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei endlich-dimensionale
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei endlich-dimensionale
$ k $ -Vektorräume, mit Basen $ \vec { u } _ 1 , …, \vec { u } _ n $ von $ U $ und
$ \vec { v } _ 1 , …, \vec { v } _ m $ von $ V $ . Dann können wir die zugehörende Basis für
das Tensorprodukt $ U⊗ V $ wie folgt anordnen:
@@ -279,7 +278,7 @@ Basen.
…,
\underbrace { \vec { u } _ n⊗ \vec { v } _ 1 , …, \vec { u } _ n⊗ \vec { v } _ m } _ { \text { beginnt mit } \vec { u } _ n } .
\]
Diese Anordnung heiße \emph { lexikograph ische Anordnung} \index { lexikograph ische
Diese Anordnung heiße \emph { lexikograf ische Anordnung} \index { lexikograf ische
Anordnung} , weil das Verfahren daran erinnert, wie die Einträge in einem
Lexikon oder einem Telefonbuch\footnote { Eine historische Erläuterung des
Wortes finden Sie \href { https://de.wikipedia.org/wiki/Telefonbuch} { hier} .
@@ -294,13 +293,13 @@ Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
induzieren. Der folgende Satz macht diese Aussage präzise.
\begin { satz} [Tensorprodukte von Abbildungen]\label { satz:15-4-1}
Es sei $ k $ ein Körper, und es seien $ f _ 1 : U _ 1 → V _ 1 $ und $ f _ 2 : U _ 2 → V _ 2 $
Es sei $ k $ ein Körper und $ f _ 1 : U _ 1 → V _ 1 $ und $ f _ 2 : U _ 2 → V _ 2 $
lineare Abbildungen von $ k $ -Vektorräumen. Dann gibt es genau eine lineare
Abbildung
\[
ν : U _ 1 ⊗U _ 2 → V _ 1 ⊗V _ 2 ,
ν : U _ 1 ⊗U _ 2 → V _ 1 ⊗V _ 2 ,
\]
so dass das folgende Diagramm kommutiert:
sodass das folgende Diagramm kommutiert:
\[
\begin { tikzcd } [ column sep = 2 cm ]
U _ 1 ⨯ U_ 2 \ar [ d, "τ _ 1 "' ] \ar [ r, "f _ 1 ⨯ f_ 2 " ] & V _ 1 ⨯ V_ 2 \ar [ d, "τ _ 2 " ] \\
@@ -329,7 +328,7 @@ Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
Matrizen diskutieren.
\begin { konstruktion}
Es sei $ k $ ein Körper, und es seien Zahlen $ a _ 1 $ , $ a _ 2 $ , $ b _ 1 $ und $ b _ 2 $ sowie
Es sei $ k $ ein Körper und es seien Zahlen $ a _ 1 $ , $ a _ 2 $ , $ b _ 1 $ und $ b _ 2 $ sowie
Matrizen
\[
A _ 1 ∈ \Mat ( a _ 1 ⨯ b_ 1 , k ) \quad \text { und } \quad A _ 2 ∈ \Mat ( a _ 2 ⨯ b_ 2 , k )
@@ -338,10 +337,10 @@ Matrizen diskutieren.
\[
\varphi _ { A _ 1 } : k ^ { b _ 1 } → k ^ { a _ 1 } , \quad %
\varphi _ { A _ 2 } : k ^ { b _ 2 } → k ^ { a _ 2 } \quad \text { und } \quad %
\varphi _ { A _ 1 } ⊗ \varphi _ { A _ 1 } : k ^ { b _ 1 } ⊗ k ^ { b _ 1 } → k ^ { a _ 1 } ⊗ k ^ { a _ 2 }
\varphi _ { A _ 1 } ⊗ \varphi _ { A _ 1 } : k ^ { b _ 1 } ⊗ k ^ { b _ 1 } → k ^ { a _ 1 } ⊗ k ^ { a _ 2 } .
\]
Wir statten die Räume $ k ^ { a _ 1 } $ , $ k ^ { a _ 2 } $ , $ k ^ { b _ 1 } $ und $ k ^ { b _ 2 } $ jeweils
mit den kanonischen Standardbasen aus, wählen die lexikograph isch angeordneten
mit den kanonischen Standardbasen aus, wählen die lexikograf isch angeordneten
Produktbasen auf $ k ^ { a _ 1 } ⊗ k ^ { a _ 2 } $ und $ k ^ { b _ 1 } ⊗ k ^ { b _ 2 } $ und betrachten die
zugehörende darstellende Matrix von $ \varphi _ { A _ 1 } ⊗ \varphi _ { A _ 1 } $ bezüglich
dieser Produktbasen. Diese Matrix wird häufig als
@@ -357,7 +356,7 @@ Matrizen diskutieren.
Das Kronecker-Produkt ist also eine unangenehme Abbildung
\[
•⊗• : \Mat ( a _ 1 ⨯ b_ 1 , k ) ⨯ \Mat ( a _ 2 ⨯ b_ 2 ,
k ) → \Mat \bigl ( ( a _ 1 ·a _ 2 ) ⨯ ( b _ 1 ·b _ 2 ) , k \bigr )
k ) → \Mat \bigl ( ( a _ 1 ·a _ 2 ) ⨯ ( b _ 1 ·b _ 2 ) , k \bigr ) .
\]
Auf \href { https://de.wikipedia.org/wiki/Kronecker-Produkt} { Wikipedia} ist
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
@@ -368,7 +367,7 @@ Matrizen diskutieren.
In der Situation von Satz~\ref { satz:15-4-1} seien angeordnete Basen
$ \mathcal { B } _ { U, • } $ von $ U _ { • } $ und $ \mathcal { B } _ { V, • } $ von $ V _ { • } $ gegeben.
Weiter seien $ \mathcal { B } _ { U, 1 ⨯ 2 } $ und $ \mathcal { B } _ { V, 1 ⨯ 2 } $ die
lexikograph isch angeordneten Produktbasen von $ U _ 1 ⨯ U_ 2 $ und $ V _ 1 ⨯ V_ 2 $ . Dann
lexikograf isch angeordneten Produktbasen von $ U _ 1 ⨯ U_ 2 $ und $ V _ 1 ⨯ V_ 2 $ . Dann
gilt für die darstellenden Matrizen die Gleichung
\[
\Mat ^ { \mathcal { B } _ { U, 1 ⨯ 2 } } _ { \mathcal { B } _ { V, 1 ⨯ 2 } } ( f _ 1 ⊗ f _ 2 ) =
@@ -386,7 +385,7 @@ Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
Folge der universellen Eigenschaften.
\begin { satz} [Tensorprodukt und direkte Summe]\label { satz:15-5-1}
\begin { satz} [Tensorprodukt und direkte Summe]\label { satz:15-5-1} %
Es sei $ k $ ein Körper und $ ( U _ i ) _ { i ∈ I } $ sei eine Familie von
$ k $ -Vektorräumen, zusätzlich sei $ V $ ein weiterer $ k $ -Vektorraum. Dann gibt
es eine kanonische Isomorphie zwischen den direkten Summen
@@ -406,7 +405,7 @@ Folge der universellen Eigenschaften.
m: k⨯ V → V, \quad ( λ, \vec { v } ) ↦ λ· \vec { v }
\]
ist bilinear. Also gibt es gemäß der universellen Eigenschaft des
Tensorprodukts genau eine lineare Abbildung $ η $ , so dass das folgende Diagramm
Tensorprodukts genau eine lineare Abbildung $ η $ , sodass das folgende Diagramm
kommutiert,
\[
\begin { tikzcd }