forked from kebekus/LineareAlgebra2
435 lines
19 KiB
TeX
435 lines
19 KiB
TeX
% spell checker language
|
||
\selectlanguage{german}
|
||
|
||
\chapter{Das Tensorprodukt}
|
||
\label{sec:TProd}
|
||
\sideremark{Vorlesung 21}
|
||
|
||
\section{Worum geht es?}
|
||
|
||
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
|
||
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
|
||
es ist, dass all bilinearen Abbildungen von $U⨯V → W$ ``von $U⊗V$ kommen'', und
|
||
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
|
||
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
|
||
präzise.
|
||
|
||
\begin{defn}[Tensorprodukt]
|
||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein
|
||
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
|
||
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U⨯V → T$, so
|
||
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U⨯V → W$
|
||
gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm
|
||
kommutiert:
|
||
\[
|
||
\begin{tikzcd}[column sep=2cm]
|
||
U⨯V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
|
||
U⨯V \ar[r, "s\text{, bilinear}"'] & W .
|
||
\end{tikzcd}
|
||
\]
|
||
\end{defn}
|
||
|
||
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
|
||
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
|
||
|
||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
|
||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter
|
||
seien $τ_1 : U⨯ V → T_1$ und $τ_1 : U⨯ V → T_2$ zwei Tensorprodukte. Dann
|
||
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
|
||
\end{satz}
|
||
\begin{proof}
|
||
\video{21-1}
|
||
\end{proof}
|
||
|
||
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
|
||
|
||
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
|
||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
|
||
existiert ein Tensorprodukt.
|
||
\end{satz}
|
||
\begin{proof}
|
||
\video{21-2}
|
||
\end{proof}
|
||
|
||
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}
|
||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen
|
||
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
|
||
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
|
||
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
|
||
Literatur oft \emph{Tensoren}\index{Tensor}.
|
||
\end{notation}
|
||
|
||
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}
|
||
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
|
||
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor
|
||
$τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der
|
||
Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt
|
||
und mit $\vec{u}⊗\vec{v}$ bezeichnet.
|
||
\end{notation}
|
||
|
||
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
|
||
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis
|
||
$\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition,
|
||
dass die Tensoren
|
||
\[
|
||
\vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1,
|
||
\quad\text{und}\quad \vec{e}_2⊗\vec{e}_2
|
||
\]
|
||
linear unabhängig sind.
|
||
\end{aufgabe}
|
||
|
||
|
||
\section{Reine Tensoren}
|
||
|
||
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
|
||
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
|
||
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente
|
||
der Form $\vec{u}⊗ \vec{v}$ --- von denen wir aber im Moment noch nicht einmal
|
||
wissen, ob sie Null sind oder nicht.
|
||
|
||
\begin{notation}[Reine Tensor]\label{not:15-1-4b}
|
||
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
|
||
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
|
||
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren
|
||
$\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}⊗\vec{v}$ ist.
|
||
\end{notation}
|
||
|
||
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
|
||
Selbst wenn ein gegebener $\vec{τ} = \vec{u}⊗\vec{v} ∈ U⊗V$ ein reiner Tensor
|
||
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
|
||
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung
|
||
$τ : U⨯V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit
|
||
\[
|
||
\vec{u}⊗\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v})
|
||
\]
|
||
gilt. Es gibt aber auch noch komplizierte Beispiele.
|
||
\end{bemerkung}
|
||
|
||
\begin{bemerkung}
|
||
Betrachte die Situation aus Situation von Notation~\ref{not:15-1-4b}. Selbst
|
||
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
|
||
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
|
||
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
|
||
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit
|
||
$\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls
|
||
überraschend schwer sein.
|
||
\end{bemerkung}
|
||
|
||
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
|
||
Beweisen Sie, dass der Tensor
|
||
$\vec{e}_1⊗\vec{e}_1 + \vec{e}_2⊗\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner
|
||
Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$,
|
||
$\vec{v}_2 ∈ ℝ²$, so dass die Gleichheit
|
||
$\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, so
|
||
dass die Gleichheit nicht gilt!
|
||
\end{aufgabe}
|
||
|
||
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
|
||
die Tatsache, dass jeder Tensor eine Linearkombination von reinen Tensoren sind.
|
||
Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
|
||
hinschreiben können.
|
||
|
||
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
|
||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
|
||
ist die Menge der reinen Tensoren,
|
||
\[
|
||
R := \{ \vec{u}⊗ \vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v} ∈
|
||
V\},
|
||
\]
|
||
ein Erzeugendensystem von $U⊗ V$.
|
||
\end{satz}
|
||
\begin{proof}
|
||
\video{21-3}
|
||
\end{proof}
|
||
|
||
\begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren]
|
||
Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als
|
||
Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare
|
||
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung
|
||
gilt,
|
||
\[
|
||
\vec{τ} = \sum_i a_i·(\vec{u_i}⊗\vec{v_i}).
|
||
\]
|
||
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
|
||
Index $i$ die Gleichung
|
||
$a_i·(\vec{u_i}⊗\vec{v_i}) = (a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht
|
||
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren
|
||
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen
|
||
Tensoren schreiben kann.
|
||
\end{bemerkung}
|
||
|
||
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
|
||
In der Situation von Satz~\ref{satz:15-2-5} sei $W$ ein weiterer
|
||
$k$-Vektorraum. In der Literatur (besonders in der physikalischen Literatur)
|
||
hat sich die Unart eingebürgert, lineare Abbildungen $Ψ: V⊗W → X$ durch einen
|
||
Text der folgenden Art zu definieren:
|
||
\[
|
||
Ψ: U⊗V → X, \quad \vec{u}⊗\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}).
|
||
\]
|
||
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
|
||
Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor
|
||
$\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination
|
||
von reinen Tensoren,
|
||
\[
|
||
\vec{τ} = \sum a_i·\vec{v}_i⊗\vec{w}_i
|
||
\]
|
||
und setze
|
||
\[
|
||
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
|
||
\]
|
||
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
|
||
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so
|
||
``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
|
||
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
|
||
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
|
||
folge.
|
||
\end{notation}
|
||
|
||
|
||
\section{Erzeugendensysteme und Basen}
|
||
|
||
Satz~\ref{satz:15-2-5} erlaubt es, jeden Tensor als Linearkombination von reinen
|
||
Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beiden
|
||
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
|
||
Tensorproduktraum erhält.
|
||
|
||
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}
|
||
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
|
||
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
|
||
folgende Menge von reinen Tensoren,
|
||
\begin{align}\label{system}
|
||
P := \big( \vec{u}_i⊗\vec{v}_j \big)_{(i,j) ∈ I⨯ J}
|
||
\end{align}
|
||
ein Erzeugendensystem für $U⊗V$.
|
||
\end{kor}
|
||
\begin{proof}
|
||
Wir müssen zeigen, dass jedes Element von $U⊗V$ eine Linearkombination von
|
||
Elementen aus $P$ ist. Da jedes Element von $U⊗V$ Linearkombination von
|
||
reinen Tensoren ist, genügt es zu zeigen, dass jeder reine Tensor eine
|
||
Linearkombination des obigen Systems ist. Sei also $\vec{u}⊗\vec{v} ∈ U⊗V$
|
||
ein reiner Tensor. Per Annahme gibt es Linearkombinationen
|
||
\[
|
||
\vec{u} = \sum_{i ∈ I} a_i·\vec{u}_i,\quad \vec{v} = \sum_{j ∈ J}
|
||
b_j·\vec{v}_j.
|
||
\]
|
||
Dann ist
|
||
\begin{align*}
|
||
\vec{u}⊗\vec{v} &= \left(\sum_{i ∈ I} a_i·\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
|
||
&= \sum_{i ∈ I} a_i·\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
|
||
&= \sum_{i ∈ I} a_i·\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_j·\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
|
||
&= \sum_{(i,j) ∈ I⨯ J} a_ib_j· \big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente}
|
||
\end{align*}
|
||
Das beweist die Behauptung.
|
||
\end{proof}
|
||
|
||
\begin{kor}[Basen für Tensorprodukt]\label{kor:15-2-7}
|
||
In der Situation von Korollar~\ref{kor:15-2-6} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
|
||
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ Basen von $U$ und von $V$. Dann ist die Menge
|
||
$P$ eine Basis von $U⊗V$.
|
||
\end{kor}
|
||
\begin{proof}
|
||
Um zu zeigen, dass die Menge $P$ eine Basis ist, müssen wir die lineare
|
||
Unabhängigkeit beweisen. Als Vorbereitung für den Beweis der linearen
|
||
Unabhängigkeit betrachten wir die dualen Basen
|
||
$(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und
|
||
beachten, dass für jedes Paar $(i,j) ∈ I⨯ J$ von Indices die Abbildung
|
||
\[
|
||
s_{ij} : U⨯V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) ·
|
||
\vec{v}^{\:*}_i(\vec{v})
|
||
\]
|
||
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
|
||
eine lineare Abbildung $η_{ij}: U⊗V → k$, so dass für alle $(α,β) ∈ I⨯ J$ gilt
|
||
\begin{align*}
|
||
η_{ij} (\vec{u}_α⊗\vec{v}_β) &= s_{ij}\bigl((\vec{u}_α, \vec{v}_β)\bigr) && \text{univ.~Eigenschaft} \\
|
||
& = \vec{u}^{\:*}_i(\vec{u}_α) · \vec{v}^{\:*}_i(\vec{v}_β) && \text{Definition von } s_{ij} \\
|
||
& = δ_{iα} · δ_{jβ} = δ_{(αβ)(ij)}. && \text{Definition von dualer Basis}
|
||
\end{align*}
|
||
|
||
Zurück zum Beweis der linearen Unabhängigkeit: es sei eine lineare Relation
|
||
\begin{equation}\label{eq:fgh}
|
||
\vec{0}_{U⊗V} = \sum_{(α,β) ∈ I⨯ J} a_{αβ}· \vec{u}_α⊗\vec{v}_β
|
||
\end{equation}
|
||
gegeben. Dann gilt für jedes Paar $(i,j) ∈ I⨯J$ von Indizes, dass
|
||
\begin{align*}
|
||
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
|
||
&= η_{ij} \left( \sum_{(α,β) ∈ I⨯ J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
|
||
&= \sum_{(α,β) ∈ I⨯ J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
|
||
&= a_{ij}
|
||
\end{align*}
|
||
Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
|
||
\end{proof}
|
||
|
||
\begin{kor}[Dimensionsformel für Tensorprodukte]
|
||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
|
||
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
|
||
\end{kor}
|
||
|
||
Wir haben oben gesehen, wie man auch zwei Basen für die Vektorräume $U$ und $V$
|
||
eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
|
||
Basen.
|
||
|
||
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
|
||
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
|
||
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
|
||
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
|
||
das Tensorprodukt $U⊗ V$ wie folgt anordnen:
|
||
\[
|
||
\underbrace{\vec{u}_1⊗ \vec{v}_1, …, \vec{u}_1⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_1},
|
||
\underbrace{\vec{u}_2⊗ \vec{v}_1, …, \vec{u}_2⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_2},
|
||
…,
|
||
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
|
||
\]
|
||
Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische
|
||
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
|
||
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
|
||
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
|
||
Wie sie wissen, komme ich aus einem anderen Zeitalter.} angeordnet sind.
|
||
\end{konstruktion}
|
||
|
||
|
||
\section{Tensorprodukte von Abbildungen}
|
||
|
||
Die universelle Eigenschaft des Tensorprodukts garantiert sehr schnell, dass
|
||
Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
|
||
induzieren. Der folgende Satz macht diese Aussage präzise.
|
||
|
||
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
|
||
Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
|
||
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
|
||
Abbildung
|
||
\[
|
||
ν : U_1⊗U_2 → V_1⊗V_2 ,
|
||
\]
|
||
so dass das folgende Diagramm kommutiert:
|
||
\[
|
||
\begin{tikzcd}[column sep=2cm]
|
||
U_1⨯U_2 \ar[d, "τ_1"'] \ar[r, "f_1⨯f_2"] & V_1⨯V_2 \ar[d, "τ_2"]\\
|
||
U_1⊗U_2 \ar[r, "∃! ν"'] & V_1⊗V_2 .
|
||
\end{tikzcd}
|
||
\]
|
||
Dabei sind $τ_{•}$ die Abbildungen, die zu den Tensorprodukten gehören und
|
||
$f_1⨯f_2$ ist die komponentenweise Abbildung, also
|
||
\[
|
||
f_1⨯f_2: U_1⨯U_2 → V_1⨯V_2, \quad (\vec{u}_1, \vec{u_2}) ↦ \bigl(f_1(\vec{u}_1), f_2( \vec{u}_2)\bigr).
|
||
\]
|
||
\end{satz}
|
||
\begin{proof}
|
||
Rechnen Sie nach, dass die Abbildung $τ_2◦(f_1⨯f_2): U_1⨯U_2 → V_1⊗V_2$
|
||
bilinear ist. Existenz und Eindeutigkeit von $ν$ folgt dann direkt aus der
|
||
universellen Eigenschaft des Tensorprodukts.
|
||
\end{proof}
|
||
|
||
\begin{notation}[Tensorprodukte von Abbildungen]
|
||
In der Situation von Satz~\ref{satz:15-4-1} wird die Abbildung $ν$ oft als
|
||
\emph{Tensorprodukt der Abbildungen $f_1$ und $f_2$}\index{Tensorprodukt!von
|
||
Abbildungen} genannt und mit dem Symbol $f_1⊗f_2$ bezeichnet.
|
||
\end{notation}
|
||
|
||
Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
|
||
Matrizen diskutieren.
|
||
|
||
\begin{konstruktion}
|
||
Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
|
||
Matrizen
|
||
\[
|
||
A_1 ∈ \Mat(a_1⨯ b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2⨯ b_2, k)
|
||
\]
|
||
gegeben. Wir betrachten die zugehörigen linearen Abbildungen
|
||
\[
|
||
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
|
||
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
|
||
\varphi_{A_1}⊗\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}
|
||
\]
|
||
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
|
||
mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten
|
||
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
|
||
zugehörende darstellende Matrix von $\varphi_{A_1}⊗\varphi_{A_1}$ bezüglich
|
||
dieser Produktbasen. Diese Matrix wird häufig als
|
||
\[
|
||
A_1⊗A_2 ∈ \Mat((a_1·a_2)⨯ (b_1·b_2), k)
|
||
\]
|
||
geschrieben und als \emph{Kronecker-Produkt}\index{Kronecker-Produkt} oder
|
||
\emph{Tensorprodukt}\index{Tensorprodukt!von Matrizen} der Matrizen $A_1$ und
|
||
$A_2$ bezeichnet.
|
||
\end{konstruktion}
|
||
|
||
\begin{bemerkung}
|
||
Das Kronecker-Produkt ist also eine unangenehme Abbildung
|
||
\[
|
||
•⊗• : \Mat(a_1⨯ b_1, k)⨯\Mat(a_2⨯ b_2,
|
||
k) → \Mat\bigl((a_1·a_2)⨯ (b_1·b_2), k\bigr)
|
||
\]
|
||
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
|
||
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
|
||
elementare Eigenschaften genannt. Der Leser wendet sich mit Grausen.
|
||
\end{bemerkung}
|
||
|
||
\begin{prop}
|
||
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
|
||
$\mathcal{B}_{U, •}$ von $U_{•}$ und $\mathcal{B}_{V, •}$ von $V_{•}$ gegeben.
|
||
Weiter seien $\mathcal{B}_{U, 1⨯ 2}$ und $\mathcal{B}_{V, 1⨯ 2}$ die
|
||
lexikographisch angeordneten Produktbasen von $U_1⨯U_2$ und $V_1⨯V_2$. Dann
|
||
gilt für die darstellenden Matrizen die Gleichung
|
||
\[
|
||
\Mat^{\mathcal{B}_{U,1⨯ 2}}_{\mathcal{B}_{V,1⨯ 2}}(f_1⊗ f_2) =
|
||
\Mat^{\mathcal{B}_{U,1}}_{\mathcal{B}_{V,1}}(f_1)⊗\Mat^{\mathcal{B}_{U,2}}_{\mathcal{B}_{V,2}}(f_2)
|
||
\]
|
||
\end{prop}
|
||
\begin{proof}
|
||
Keine Lust mehr.
|
||
\end{proof}
|
||
|
||
|
||
\section{Rechenregeln für Tensorprodukträume}
|
||
|
||
Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
|
||
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
|
||
Folge der universellen Eigenschaften.
|
||
|
||
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}
|
||
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
|
||
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
|
||
es eine kanonische Isomorphie zwischen den direkten Summen
|
||
\[
|
||
\big( \bigoplus_{i ∈ I} U_i \big)⊗V \simeq \bigoplus_{i ∈ I} (U_i⊗V)
|
||
\eqno\qed
|
||
\]
|
||
\end{satz}
|
||
|
||
\begin{satz}
|
||
Es sei $k$ und Körper und es sei $V$ ein $k-$Vektorraum. Dann gibt es einen
|
||
kanonischen Isomorphismus zwischen den Vektorräumen $k⊗V$ und $V$.
|
||
\end{satz}
|
||
\begin{proof}
|
||
Die skalare Multiplikation
|
||
\[
|
||
m: k⨯V → V, \quad (λ, \vec{v}) ↦ λ·\vec{v}
|
||
\]
|
||
ist bilinear. Also gibt es gemäß der universellen Eigenschaft des
|
||
Tensorprodukts genau eine lineare Abbildung $η$, so dass das folgende Diagramm
|
||
kommutiert,
|
||
\[
|
||
\begin{tikzcd}
|
||
k⨯V \ar[d, equals] \ar[r, "τ"] & k⊗V \ar[d, "∃! η"]\\
|
||
k⨯V \ar[r, "m"] & V.
|
||
\end{tikzcd}
|
||
\]
|
||
Die Abbildung $η$ ist surjektiv, denn wenn ein Vektor $\vec{v} ∈ V$ gegeben
|
||
ist, dann ist $\vec{v} = m(1, \vec{v})$. Die Abbildung $η$ ist aber auch
|
||
injektiv. Sei nämlich $\vec{x} ∈ k⨯V$ im Kern von $η$. Dann kann ich
|
||
$\vec{x}$ darstellen als Summe von reinen Tensoren,
|
||
\[
|
||
\vec{x} = \sum λ_i⊗\vec{v}_i = \sum 1⊗(λ_i \vec{v}_i) = 1 ⊗\big (\sum λ_i
|
||
\vec{v}_i \big).
|
||
\]
|
||
Wir wissen dann $\vec{0}_V = η(\vec{x}) = 1 · (\sum λ_i \vec{v}_i)$.
|
||
Insgesamt gilt
|
||
\[
|
||
\vec{x} = 1⊗\vec{0}_V = 1⊗(0_k · \vec{0}_V) = 0_k · (1⊗\vec{0}_V) =
|
||
\vec{0}_{k⊗V}.
|
||
\]
|
||
Die Injektivität von $η$ folgt also.
|
||
\end{proof}
|
||
|
||
% !TEX root = LineareAlgebra2
|