@@ -15,12 +15,12 @@ mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise.
präzise.
\begin { defn} [Tensorprodukt]
\begin { defn} [Tensorprodukt]
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Ein
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei $ k $ -Vektorräume. Ein
\emph { Tensorprodukt} \index { Tensorprodukt!von Vektorräumen} von $ U $ und $ V $ ist
\emph { Tensorprodukt} \index { Tensorprodukt!von Vektorräumen} von $ U $ und $ V $ ist
ein $ k $ -Vektorraum $ T $ zusammen mit einer bilineare Abbildung $ τ: U⨯ V → T $ , so
ein $ k $ -Vektorraum $ T $ zusammen mit einer bilineare Abbildung $ τ: U ⨯ V → T $ ,
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $ s: U⨯ V → W$
so dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $ s: U ⨯ V →
gibt es genau eine lineare Abbildung $ η: T → W $ , so dass das folgende Diagramm
W $ gibt es genau eine lineare Abbildung $ η: T → W $ , so dass das folgende
kommutiert:
Diagramm kommutiert:
\[
\[
\begin { tikzcd } [ column sep = 2 cm ]
\begin { tikzcd } [ column sep = 2 cm ]
U⨯ V \ar [ r, "τ \text { , bilinear } " ] \ar [ d, equal ] & T \ar [ d, "∃ ! η \text { , linear } " ] \\
U⨯ V \ar [ r, "τ \text { , bilinear } " ] \ar [ d, equal ] & T \ar [ d, "∃ ! η \text { , linear } " ] \\
@@ -33,7 +33,7 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin { satz} [Eindeutigkeit des Tensorproduktes]\label { satz:15-1-2}
\begin { satz} [Eindeutigkeit des Tensorproduktes]\label { satz:15-1-2}
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Weiter
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei $ k $ -Vektorräume. Weiter
seien $ τ _ 1 : U⨯ V → T _ 1 $ und $ τ _ 1 : U⨯ V → T _ 2 $ zwei Tensorprodukte. Dann
seien $ τ _ 1 : U⨯ V → T _ 1 $ und $ τ _ 1 : U⨯ V → T _ 2 $ zwei Tensorprodukte. Dann
gibt es einen kanonischen Isomorphismus $ T _ 1 ≅ T _ 2 $ .
gibt es einen kanonischen Isomorphismus $ T _ 1 ≅ T _ 2 $ .
\end { satz}
\end { satz}
@@ -44,33 +44,33 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin { satz} [Eindeutigkeit des Tensorproduktes]\label { satz:15-1-3}
\begin { satz} [Eindeutigkeit des Tensorproduktes]\label { satz:15-1-3}
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Dann
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei $ k $ -Vektorräume. Dann
existiert ein Tensorprodukt.
existiert ein Tensorprodukt.
\end { satz}
\end { satz}
\begin { proof}
\begin { proof}
\video { 21-2}
\video { 21-2}
\end { proof}
\end { proof}
\begin { notation} [Tensorproduktraum]\label { not:15-1-3}
\begin { notation} [Tensorproduktraum]\label { not:15-1-3} %
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Wegen
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei $ k $ -Vektorräume. Wegen
Satz~\ref { satz:15-1-2} und Satz~\ref { satz:15-1-3} werde ich (unter leichtem
Satz~\ref { satz:15-1-2} und Satz~\ref { satz:15-1-3} werde ich (unter leichtem
Missbrauch der Sprache) von \emph { dem Tensorprodukt} sprechen und jede
Missbrauch der Sprache) von \emph { dem Tensorprodukt} sprechen und jede
Tensorproduktraum mit $ U⊗V $ bezeichnen. Die Elemente von $ U⊗V $ heißen in der
Tensorproduktraum mit $ U⊗V $ bezeichnen. Die Elemente von $ U⊗V $ heißen in der
Literatur oft \emph { Tensoren} \index { Tensor} .
Literatur oft \emph { Tensoren} \index { Tensor} .
\end { notation}
\end { notation}
\begin { notation} [Produkt von Vektoren]\label { not:15-1-4a}
\begin { notation} [Produkt von Vektoren]\label { not:15-1-4a} %
In der Situation von Notation~\ref { not:15-1-3} seien Vektoren $ \vec { u } ∈ U $
In der Situation von Notation~\ref { not:15-1-3} seien Vektoren $ \vec { u } ∈ U $
und $ \vec { v } ∈ V $ gegeben. Dann wird der Tensor
und $ \vec { v } ∈ V $ gegeben. Dann wird der Tensor $ τ \bigl ( ( \vec { u } , \vec { v } )
$ τ \bigl ( ( \vec { u } , \vec { v } ) \bigr ) ∈ U⊗V $ auch \emph { Tensorprodukt der
\bigr ) ∈ U⊗V $ auch \emph { Tensorprodukt der Vektoren $ \vec { u } $ und
Vektoren $ \vec { u } $ und $ \vec { v } $ } \index { Tensorprodukt!von Vektoren} genannt
$ \vec { v } $ } \index { Tensorprodukt!von Vektoren} genannt und mit $ \vec { u } ⊗ \vec { v } $
und mit $ \vec { u } ⊗ \vec { v } $ bezeichnet.
bezeichnet.
\end { notation}
\end { notation}
\begin { aufgabe} [Machen Sie sich mit Tensorprodukten vertraut!]
\begin { aufgabe} [Machen Sie sich mit Tensorprodukten vertraut!]%
Betrachten Sie den Vektorraum $ ℝ² $ mit der Standardbasis
Betrachten Sie den Vektorraum $ ℝ² $ mit der Standardbasis $ \{ \vec { e } _ 1 ,
$ \{ \vec { e } _ 1 , \vec { e } _ 2 \} $ und beweisen Sie direkt mit H ilfe der Definition,
\vec { e } _ 2 \} $ und beweisen Sie direkt mith ilfe der Definition, dass die
dass die Tensoren
Tensoren
\[
\[
\vec { e } _ 1 ⊗ \vec { e } _ 1 , \quad \vec { e } _ 1 ⊗ \vec { e } _ 2 , \quad \vec { e } _ 2 ⊗ \vec { e } _ 1 ,
\vec { e } _ 1 ⊗ \vec { e } _ 1 , \quad \vec { e } _ 1 ⊗ \vec { e } _ 2 , \quad \vec { e } _ 2 ⊗ \vec { e } _ 1 ,
\quad \text { und } \quad \vec { e } _ 2 ⊗ \vec { e } _ 2
\quad \text { und } \quad \vec { e } _ 2 ⊗ \vec { e } _ 2
@@ -83,15 +83,15 @@ Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
$ T $ ; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
$ T $ ; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente
überhaupt hat. Die einzigen Elemente , die wir direkt sehen, sind Elemente der
der Form $ \vec { u } ⊗ \vec { v } $ --- von denen wir aber im Moment noch nicht einmal
Form $ \vec { u } ⊗ \vec { v } $ --- von denen wir aber im Moment noch nicht einmal
wissen, ob sie Null sind oder nicht.
wissen, ob sie Null sind oder nicht.
\begin { notation} [Reine Tensor]\label { not:15-1-4b}
\begin { notation} [Reine Tensor]\label { not:15-1-4b} %
In der Situation von Notation~\ref { not:15-1-3} sei ein Tensor $ \vec { τ } ∈ U⊗V $
In der Situation von Notation~\ref { not:15-1-3} sei ein Tensor $ \vec { τ } ∈ U⊗V $
gegeben. Man nennt $ \vec { τ } $ einen \emph { reinen
gegeben. Man nennt $ \vec { τ } $ einen \emph { reinen
Tensor} \index { Tensor!reiner} \index { reiner Tensor} , wenn es Vektoren
Tensor} \index { Tensor!reiner} \index { reiner Tensor} , wenn es Vektoren $ \vec { u } ∈
$ \vec { u } ∈ U $ und $ \vec { v } ∈ V $ gibt, so dass $ \vec { τ } = \vec { u } ⊗ \vec { v } $ ist.
U $ und $ \vec { v } ∈ V $ gibt, sodass $ \vec { τ } = \vec { u } ⊗ \vec { v } $ ist.
\end { notation}
\end { notation}
\begin { bemerkung} [Darstellung von reinen Tensoren ist nicht eindeutig]
\begin { bemerkung} [Darstellung von reinen Tensoren ist nicht eindeutig]
@@ -116,12 +116,11 @@ wissen, ob sie Null sind oder nicht.
\end { bemerkung}
\end { bemerkung}
\begin { aufgabe} [Machen Sie sich mit Tensorprodukten vertraut!]
\begin { aufgabe} [Machen Sie sich mit Tensorprodukten vertraut!]
Beweisen Sie, dass der Tensor
Beweisen Sie, dass der Tensor $ \vec { e } _ 1 ⊗ \vec { e } _ 1 + \vec { e } _ 2 ⊗ \vec { e } _ 2 ∈ ℝ²
$ \vec { e } _ 1 ⊗ \vec { e } _ 1 + \vec { e } _ 2 ⊗ \vec { e } _ 2 ∈ ℝ² ⊗ ℝ² $ \emph { kein} reiner
⊗ ℝ² $ \emph { kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren
Tensor ist! Finden Sie unterschiedliche Vektoren $ \vec { v } _ 1 $ ,
$ \vec { v } _ 1 $ , $ \vec { v } _ 2 ∈ ℝ² $ , sodass die Gleichheit $ \vec { v } _ 1 ⊗ \vec { v } _ 2 =
$ \vec { v } _ 2 ∈ ℝ² $ , so dass die Gleichheit
\vec { v } _ 2 ⊗ \vec { v } _ 1 $ gilt! Finden Sie Vektoren , sodass die Gleichheit nicht
$ \vec { v } _ 1 ⊗ \vec { v } _ 2 = \vec { v } _ 2 ⊗ \vec { v } _ 1 $ gilt! Finden Sie Vektoren, so
gilt!
dass die Gleichheit nicht gilt!
\end { aufgabe}
\end { aufgabe}
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
@@ -130,7 +129,7 @@ Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
hinschreiben können.
hinschreiben können.
\begin { satz} [Reine Tensoren erzeugen des Tensorprodukt]\label { satz:15-2-5}
\begin { satz} [Reine Tensoren erzeugen des Tensorprodukt]\label { satz:15-2-5}
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei $ k $ -Vektorräume. Dann
Es sei $ k $ ein Körper $ U $ und $ V $ zwei $ k $ -Vektorräume. Dann
ist die Menge der reinen Tensoren,
ist die Menge der reinen Tensoren,
\[
\[
R : = \{ \vec { u } ⊗ \vec { v } ∈ U⊗ V \: | \: \vec { u } ∈ U \text { und } \vec { v } ∈
R : = \{ \vec { u } ⊗ \vec { v } ∈ U⊗ V \: | \: \vec { u } ∈ U \text { und } \vec { v } ∈
@@ -167,9 +166,9 @@ hinschreiben können.
Ψ: U⊗V → X, \quad \vec { u } ⊗ \vec { v } ↦ ( \text { Formel mit } \vec { u } \text { und } \vec { v } ) .
Ψ: U⊗V → X, \quad \vec { u } ⊗ \vec { v } ↦ ( \text { Formel mit } \vec { u } \text { und } \vec { v } ) .
\]
\]
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
Gemeint ist mit dieser `` Definition'' folgendes: gegeben einen Tensor
Gemeint ist mit dieser „ Definition“ folgendes: gegeben einen Tensor $ \vec { τ } ∈
$ \vec { τ } ∈ U⊗V $ , schreibe $ \vec { τ } $ auf irgendeine Weise als Linearkombination
U⊗V $ , schreibe $ \vec { τ } $ auf irgendeine Weise als Linearkombination von reinen
von reinen Tensoren,
Tensoren,
\[
\[
\vec { τ } = \sum a _ i· \vec { v } _ i⊗ \vec { w } _ i
\vec { τ } = \sum a _ i· \vec { v } _ i⊗ \vec { w } _ i
\]
\]
@@ -178,11 +177,11 @@ hinschreiben können.
Ψ ( \vec { τ } ) : = \sum a _ i· Ψ ( \vec { v } _ i⊗ \vec { w } _ i ) .
Ψ ( \vec { τ } ) : = \sum a _ i· Ψ ( \vec { v } _ i⊗ \vec { w } _ i ) .
\]
\]
Das kann man das als Definition einer linearen Abbildung $ Ψ $ akzeptieren, wenn
Das kann man das als Definition einer linearen Abbildung $ Ψ $ akzeptieren, wenn
man sich zuerst von der \emph { Wohldefiniert} überzeugt hat: d er so
man sich zuerst von der \emph { Wohldefiniert} überzeugt hat: D er so
`` definierte'' Wert von $ Ψ ( \vec { τ } ) $ darf nicht von der Wahl der
„ definierte“ Wert von $ Ψ ( \vec { τ } ) $ darf nicht von der Wahl der
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
f olge.
F olge.
\end { notation}
\end { notation}
@@ -193,7 +192,7 @@ Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beide
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
Tensorproduktraum erhält.
Tensorproduktraum erhält.
\begin { kor} [Erzeugendensystem für Tensorprodukt]\label { kor:15-2-6}
\begin { kor} [Erzeugendensystem für Tensorprodukt]\label { kor:15-2-6} %
In der Situation von Satz~\ref { satz:15-2-5} seien $ ( \vec { u } _ i ) _ { i ∈ I } ⊂ U $
In der Situation von Satz~\ref { satz:15-2-5} seien $ ( \vec { u } _ i ) _ { i ∈ I } ⊂ U $
und $ ( \vec { v } _ j ) _ { j ∈ J } ⊂ V $ jeweils Erzeugendensysteme. Dann ist die
und $ ( \vec { v } _ j ) _ { j ∈ J } ⊂ V $ jeweils Erzeugendensysteme. Dann ist die
folgende Menge von reinen Tensoren,
folgende Menge von reinen Tensoren,
@@ -217,7 +216,7 @@ Tensorproduktraum erhält.
\vec { u} ⊗\vec { v} & = \left (\sum _ { i ∈ I} a_ i·\vec { u} _ i \right )⊗\vec { v} & & \text { Einsetzen} \\
\vec { u} ⊗\vec { v} & = \left (\sum _ { i ∈ I} a_ i·\vec { u} _ i \right )⊗\vec { v} & & \text { Einsetzen} \\
& = \sum _ { i ∈ I} a_ i·\big ( \vec { u} _ i⊗\vec { v} \big ) & & \text { Linearität von $ τ $ in 1.~Komponente} \\
& = \sum _ { i ∈ I} a_ i·\big ( \vec { u} _ i⊗\vec { v} \big ) & & \text { Linearität von $ τ $ in 1.~Komponente} \\
& = \sum _ { i ∈ I} a_ i·\Big ( \vec { u} _ i⊗\Big ( \sum _ { j ∈ J} b_ j·\vec { v} _ j \Big ) \Big ) & & \text { Einsetzen} \\
& = \sum _ { i ∈ I} a_ i·\Big ( \vec { u} _ i⊗\Big ( \sum _ { j ∈ J} b_ j·\vec { v} _ j \Big ) \Big ) & & \text { Einsetzen} \\
& = \sum _ { (i,j) ∈ I⨯ J} a_ ib_ j· \big (\vec { u} _ i⊗\vec { b} _ j \big ). & & \text { Linearität von $ τ $ in 2.~Komponente}
& = \sum _ { (i,j) ∈ I⨯ J} a_ ib_ j· \big (\vec { u} _ i⊗\vec { b} _ j \big ) & & \text { Linearität von $ τ $ in 2.~Komponente} .
\end { align*}
\end { align*}
Das beweist die Behauptung.
Das beweist die Behauptung.
\end { proof}
\end { proof}
@@ -238,7 +237,7 @@ Tensorproduktraum erhält.
\vec { v } ^ { \: * } _ i ( \vec { v } )
\vec { v } ^ { \: * } _ i ( \vec { v } )
\]
\]
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
eine lineare Abbildung $ η _ { ij } : U⊗V → k $ , so dass für alle $ ( α ,β) ∈ I⨯ J $ gilt
eine lineare Abbildung $ η _ { ij } : U⊗V → k $ , sodass für alle $ ( α ,β) ∈ I⨯ J $ gilt
\begin { align*}
\begin { align*}
η_ { ij} (\vec { u} _ α⊗\vec { v} _ β) & = s_ { ij} \bigl ((\vec { u} _ α , \vec { v} _ β)\bigr ) & & \text { univ.~Eigenschaft} \\
η_ { ij} (\vec { u} _ α⊗\vec { v} _ β) & = s_ { ij} \bigl ((\vec { u} _ α , \vec { v} _ β)\bigr ) & & \text { univ.~Eigenschaft} \\
& = \vec { u} ^ { \: * } _ i(\vec { u} _ α ) · \vec { v} ^ { \: * } _ i(\vec { v} _ β) & & \text { Definition von } s_ { ij} \\
& = \vec { u} ^ { \: * } _ i(\vec { u} _ α ) · \vec { v} ^ { \: * } _ i(\vec { v} _ β) & & \text { Definition von } s_ { ij} \\
@@ -254,13 +253,13 @@ Tensorproduktraum erhält.
0_ k & = η_ { ij} \bigl (\vec { 0} _ { U⊗V} \bigr ) \\
0_ k & = η_ { ij} \bigl (\vec { 0} _ { U⊗V} \bigr ) \\
& = η_ { ij} \left ( \sum _ { (α ,β) ∈ I⨯ J} a_ { αβ} · \vec { u} _ α⊗\vec { v} _ β \right ) & & \text { Relation \eqref { eq:fgh} eingesetzt} \\
& = η_ { ij} \left ( \sum _ { (α ,β) ∈ I⨯ J} a_ { αβ} · \vec { u} _ α⊗\vec { v} _ β \right ) & & \text { Relation \eqref { eq:fgh} eingesetzt} \\
& = \sum _ { (α ,β) ∈ I⨯ J} a_ { αβ} ·η_ { ij} \big ( \vec { u} _ α⊗\vec { v} _ β \big ) & & \text { Linearität von } η_ { ij} \\
& = \sum _ { (α ,β) ∈ I⨯ J} a_ { αβ} ·η_ { ij} \big ( \vec { u} _ α⊗\vec { v} _ β \big ) & & \text { Linearität von } η_ { ij} \\
& = a_ { ij}
& = a_ { ij} .
\end { align*}
\end { align*}
Damit ist die Relation \eqref { eq:fgh} offenbar trivial.
Damit ist die Relation \eqref { eq:fgh} offenbar trivial.
\end { proof}
\end { proof}
\begin { kor} [Dimensionsformel für Tensorprodukte]
\begin { kor} [Dimensionsformel für Tensorprodukte]
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei endlich-dimensionale
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei endlich-dimensionale
$ k $ -Vektorräume. Dann ist $ \dim ( U⊗V ) = ( \dim U ) · ( \dim V ) $ . \qed
$ k $ -Vektorräume. Dann ist $ \dim ( U⊗V ) = ( \dim U ) · ( \dim V ) $ . \qed
\end { kor}
\end { kor}
@@ -269,7 +268,7 @@ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
Basen.
Basen.
\begin { konstruktion} [Lexikografisch angeordnete Basen für Tensorprodukte]
\begin { konstruktion} [Lexikografisch angeordnete Basen für Tensorprodukte]
Es sei $ k $ ein Körper und des seien $ U $ und $ V $ zwei endlich-dimensionale
Es sei $ k $ ein Körper und $ U $ und $ V $ zwei endlich-dimensionale
$ k $ -Vektorräume, mit Basen $ \vec { u } _ 1 , …, \vec { u } _ n $ von $ U $ und
$ k $ -Vektorräume, mit Basen $ \vec { u } _ 1 , …, \vec { u } _ n $ von $ U $ und
$ \vec { v } _ 1 , …, \vec { v } _ m $ von $ V $ . Dann können wir die zugehörende Basis für
$ \vec { v } _ 1 , …, \vec { v } _ m $ von $ V $ . Dann können wir die zugehörende Basis für
das Tensorprodukt $ U⊗ V $ wie folgt anordnen:
das Tensorprodukt $ U⊗ V $ wie folgt anordnen:
@@ -279,9 +278,9 @@ Basen.
…,
…,
\underbrace { \vec { u } _ n⊗ \vec { v } _ 1 , …, \vec { u } _ n⊗ \vec { v } _ m } _ { \text { beginnt mit } \vec { u } _ n } .
\underbrace { \vec { u } _ n⊗ \vec { v } _ 1 , …, \vec { u } _ n⊗ \vec { v } _ m } _ { \text { beginnt mit } \vec { u } _ n } .
\]
\]
Diese Anordnung heiße \emph { lexikograph ische Anordnung} \index { lexikograph ische
Diese Anordnung heiße \emph { lexikograf ische Anordnung} \index { lexikograf ische
Anordnung} , weil das Verfahren daran erinnert, wie die Einträge in einem
Anordnung} , weil das Verfahren daran erinnert, wie die Einträge in einem
Lexikon oder einem Telefonbuch\footnote { Eine historische Erläuterung des
Lexikon oder einem Telefonbuch\footnote { Eine historische Erläuterung des
Wortes finden Sie \href { https://de.wikipedia.org/wiki/Telefonbuch} { hier} .
Wortes finden Sie \href { https://de.wikipedia.org/wiki/Telefonbuch} { hier} .
Wie sie wissen, komme ich aus einem anderen Zeitalter.} angeordnet sind.
Wie sie wissen, komme ich aus einem anderen Zeitalter.} angeordnet sind.
\end { konstruktion}
\end { konstruktion}
@@ -294,13 +293,13 @@ Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
induzieren. Der folgende Satz macht diese Aussage präzise.
induzieren. Der folgende Satz macht diese Aussage präzise.
\begin { satz} [Tensorprodukte von Abbildungen]\label { satz:15-4-1}
\begin { satz} [Tensorprodukte von Abbildungen]\label { satz:15-4-1}
Es sei $ k $ ein Körper, und es seien $ f _ 1 : U _ 1 → V _ 1 $ und $ f _ 2 : U _ 2 → V _ 2 $
Es sei $ k $ ein Körper und $ f _ 1 : U _ 1 → V _ 1 $ und $ f _ 2 : U _ 2 → V _ 2 $
lineare Abbildungen von $ k $ -Vektorräumen. Dann gibt es genau eine lineare
lineare Abbildungen von $ k $ -Vektorräumen. Dann gibt es genau eine lineare
Abbildung
Abbildung
\[
\[
ν : U _ 1 ⊗U _ 2 → V _ 1 ⊗V _ 2 ,
ν : U _ 1 ⊗U _ 2 → V _ 1 ⊗V _ 2 ,
\]
\]
so dass das folgende Diagramm kommutiert:
sodass das folgende Diagramm kommutiert:
\[
\[
\begin { tikzcd } [ column sep = 2 cm ]
\begin { tikzcd } [ column sep = 2 cm ]
U _ 1 ⨯ U_ 2 \ar [ d, "τ _ 1 "' ] \ar [ r, "f _ 1 ⨯ f_ 2 " ] & V _ 1 ⨯ V_ 2 \ar [ d, "τ _ 2 " ] \\
U _ 1 ⨯ U_ 2 \ar [ d, "τ _ 1 "' ] \ar [ r, "f _ 1 ⨯ f_ 2 " ] & V _ 1 ⨯ V_ 2 \ar [ d, "τ _ 2 " ] \\
@@ -329,7 +328,7 @@ Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
Matrizen diskutieren.
Matrizen diskutieren.
\begin { konstruktion}
\begin { konstruktion}
Es sei $ k $ ein Körper, und es seien Zahlen $ a _ 1 $ , $ a _ 2 $ , $ b _ 1 $ und $ b _ 2 $ sowie
Es sei $ k $ ein Körper und es seien Zahlen $ a _ 1 $ , $ a _ 2 $ , $ b _ 1 $ und $ b _ 2 $ sowie
Matrizen
Matrizen
\[
\[
A _ 1 ∈ \Mat ( a _ 1 ⨯ b_ 1 , k ) \quad \text { und } \quad A _ 2 ∈ \Mat ( a _ 2 ⨯ b_ 2 , k )
A _ 1 ∈ \Mat ( a _ 1 ⨯ b_ 1 , k ) \quad \text { und } \quad A _ 2 ∈ \Mat ( a _ 2 ⨯ b_ 2 , k )
@@ -338,10 +337,10 @@ Matrizen diskutieren.
\[
\[
\varphi _ { A _ 1 } : k ^ { b _ 1 } → k ^ { a _ 1 } , \quad %
\varphi _ { A _ 1 } : k ^ { b _ 1 } → k ^ { a _ 1 } , \quad %
\varphi _ { A _ 2 } : k ^ { b _ 2 } → k ^ { a _ 2 } \quad \text { und } \quad %
\varphi _ { A _ 2 } : k ^ { b _ 2 } → k ^ { a _ 2 } \quad \text { und } \quad %
\varphi _ { A _ 1 } ⊗ \varphi _ { A _ 1 } : k ^ { b _ 1 } ⊗ k ^ { b _ 1 } → k ^ { a _ 1 } ⊗ k ^ { a _ 2 }
\varphi _ { A _ 1 } ⊗ \varphi _ { A _ 1 } : k ^ { b _ 1 } ⊗ k ^ { b _ 1 } → k ^ { a _ 1 } ⊗ k ^ { a _ 2 } .
\]
\]
Wir statten die Räume $ k ^ { a _ 1 } $ , $ k ^ { a _ 2 } $ , $ k ^ { b _ 1 } $ und $ k ^ { b _ 2 } $ jeweils
Wir statten die Räume $ k ^ { a _ 1 } $ , $ k ^ { a _ 2 } $ , $ k ^ { b _ 1 } $ und $ k ^ { b _ 2 } $ jeweils
mit den kanonischen Standardbasen aus, wählen die lexikograph isch angeordneten
mit den kanonischen Standardbasen aus, wählen die lexikograf isch angeordneten
Produktbasen auf $ k ^ { a _ 1 } ⊗ k ^ { a _ 2 } $ und $ k ^ { b _ 1 } ⊗ k ^ { b _ 2 } $ und betrachten die
Produktbasen auf $ k ^ { a _ 1 } ⊗ k ^ { a _ 2 } $ und $ k ^ { b _ 1 } ⊗ k ^ { b _ 2 } $ und betrachten die
zugehörende darstellende Matrix von $ \varphi _ { A _ 1 } ⊗ \varphi _ { A _ 1 } $ bezüglich
zugehörende darstellende Matrix von $ \varphi _ { A _ 1 } ⊗ \varphi _ { A _ 1 } $ bezüglich
dieser Produktbasen. Diese Matrix wird häufig als
dieser Produktbasen. Diese Matrix wird häufig als
@@ -357,7 +356,7 @@ Matrizen diskutieren.
Das Kronecker-Produkt ist also eine unangenehme Abbildung
Das Kronecker-Produkt ist also eine unangenehme Abbildung
\[
\[
•⊗• : \Mat ( a _ 1 ⨯ b_ 1 , k ) ⨯ \Mat ( a _ 2 ⨯ b_ 2 ,
•⊗• : \Mat ( a _ 1 ⨯ b_ 1 , k ) ⨯ \Mat ( a _ 2 ⨯ b_ 2 ,
k ) → \Mat \bigl ( ( a _ 1 ·a _ 2 ) ⨯ ( b _ 1 ·b _ 2 ) , k \bigr )
k ) → \Mat \bigl ( ( a _ 1 ·a _ 2 ) ⨯ ( b _ 1 ·b _ 2 ) , k \bigr ) .
\]
\]
Auf \href { https://de.wikipedia.org/wiki/Kronecker-Produkt} { Wikipedia} ist
Auf \href { https://de.wikipedia.org/wiki/Kronecker-Produkt} { Wikipedia} ist
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
@@ -368,7 +367,7 @@ Matrizen diskutieren.
In der Situation von Satz~\ref { satz:15-4-1} seien angeordnete Basen
In der Situation von Satz~\ref { satz:15-4-1} seien angeordnete Basen
$ \mathcal { B } _ { U, • } $ von $ U _ { • } $ und $ \mathcal { B } _ { V, • } $ von $ V _ { • } $ gegeben.
$ \mathcal { B } _ { U, • } $ von $ U _ { • } $ und $ \mathcal { B } _ { V, • } $ von $ V _ { • } $ gegeben.
Weiter seien $ \mathcal { B } _ { U, 1 ⨯ 2 } $ und $ \mathcal { B } _ { V, 1 ⨯ 2 } $ die
Weiter seien $ \mathcal { B } _ { U, 1 ⨯ 2 } $ und $ \mathcal { B } _ { V, 1 ⨯ 2 } $ die
lexikograph isch angeordneten Produktbasen von $ U _ 1 ⨯ U_ 2 $ und $ V _ 1 ⨯ V_ 2 $ . Dann
lexikograf isch angeordneten Produktbasen von $ U _ 1 ⨯ U_ 2 $ und $ V _ 1 ⨯ V_ 2 $ . Dann
gilt für die darstellenden Matrizen die Gleichung
gilt für die darstellenden Matrizen die Gleichung
\[
\[
\Mat ^ { \mathcal { B } _ { U, 1 ⨯ 2 } } _ { \mathcal { B } _ { V, 1 ⨯ 2 } } ( f _ 1 ⊗ f _ 2 ) =
\Mat ^ { \mathcal { B } _ { U, 1 ⨯ 2 } } _ { \mathcal { B } _ { V, 1 ⨯ 2 } } ( f _ 1 ⊗ f _ 2 ) =
@@ -386,7 +385,7 @@ Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
Folge der universellen Eigenschaften.
Folge der universellen Eigenschaften.
\begin { satz} [Tensorprodukt und direkte Summe]\label { satz:15-5-1}
\begin { satz} [Tensorprodukt und direkte Summe]\label { satz:15-5-1} %
Es sei $ k $ ein Körper und $ ( U _ i ) _ { i ∈ I } $ sei eine Familie von
Es sei $ k $ ein Körper und $ ( U _ i ) _ { i ∈ I } $ sei eine Familie von
$ k $ -Vektorräumen, zusätzlich sei $ V $ ein weiterer $ k $ -Vektorraum. Dann gibt
$ k $ -Vektorräumen, zusätzlich sei $ V $ ein weiterer $ k $ -Vektorraum. Dann gibt
es eine kanonische Isomorphie zwischen den direkten Summen
es eine kanonische Isomorphie zwischen den direkten Summen
@@ -406,7 +405,7 @@ Folge der universellen Eigenschaften.
m: k⨯ V → V, \quad ( λ, \vec { v } ) ↦ λ· \vec { v }
m: k⨯ V → V, \quad ( λ, \vec { v } ) ↦ λ· \vec { v }
\]
\]
ist bilinear. Also gibt es gemäß der universellen Eigenschaft des
ist bilinear. Also gibt es gemäß der universellen Eigenschaft des
Tensorprodukts genau eine lineare Abbildung $ η $ , so dass das folgende Diagramm
Tensorprodukts genau eine lineare Abbildung $ η $ , sodass das folgende Diagramm
kommutiert,
kommutiert,
\[
\[
\begin { tikzcd }
\begin { tikzcd }