LineareAlgebra2/15-tensor.tex
Stefan Kebekus 0fed897098 Cleanup
2025-04-07 13:20:44 +02:00

435 lines
19 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Das Tensorprodukt}
\label{sec:TProd}
\sideremark{Vorlesung 21}
\section{Worum geht es?}
Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$
und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft
es ist, dass all bilinearen Abbildungen von $UV → W$ ``von $U⊗V$ kommen'', und
zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt
mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise.
\begin{defn}[Tensorprodukt]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: UV → T$, so
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: UV → W$
gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm
kommutiert:
\[
\begin{tikzcd}[column sep=2cm]
UV \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
UV \ar[r, "s\text{, bilinear}"'] & W .
\end{tikzcd}
\]
\end{defn}
Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter
seien $τ_1 : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\end{satz}
\begin{proof}
\video{21-1}
\end{proof}
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
existiert ein Tensorprodukt.
\end{satz}
\begin{proof}
\video{21-2}
\end{proof}
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
Literatur oft \emph{Tensoren}\index{Tensor}.
\end{notation}
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor
$τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der
Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt
und mit $\vec{u}\vec{v}$ bezeichnet.
\end{notation}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis
$\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition,
dass die Tensoren
\[
\vec{e}_1\vec{e}_1,\quad \vec{e}_1\vec{e}_2,\quad \vec{e}_2\vec{e}_1,
\quad\text{und}\quad \vec{e}_2\vec{e}_2
\]
linear unabhängig sind.
\end{aufgabe}
\section{Reine Tensoren}
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente
der Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal
wissen, ob sie Null sind oder nicht.
\begin{notation}[Reine Tensor]\label{not:15-1-4b}
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren
$\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}\vec{v}$ ist.
\end{notation}
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
Selbst wenn ein gegebener $\vec{τ} = \vec{u}\vec{v} ∈ U⊗V$ ein reiner Tensor
ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig.
Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung
$τ : UV → U⊗V$, dass für jedes Skalar $λ ∈ k \{0\}$ die Gleichheit
\[
\vec{u}\vec{v} = (λ·\vec{u})(λ^{-1}·\vec{v})
\]
gilt. Es gibt aber auch noch komplizierte Beispiele.
\end{bemerkung}
\begin{bemerkung}
Betrachte die Situation aus Situation von Notation~\ref{not:15-1-4b}. Selbst
für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener
Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten.
Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren
$\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ in $V⊗V$ gilt, ebenfalls
überraschend schwer sein.
\end{bemerkung}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Beweisen Sie, dass der Tensor
$\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner
Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$,
$\vec{v}_2^2$, so dass die Gleichheit
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ gilt! Finden Sie Vektoren, so
dass die Gleichheit nicht gilt!
\end{aufgabe}
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
die Tatsache, dass jeder Tensor eine Linearkombination von reinen Tensoren sind.
Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
hinschreiben können.
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
ist die Menge der reinen Tensoren,
\[
R := \{ \vec{u}\vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v}
V\},
\]
ein Erzeugendensystem von $U⊗ V$.
\end{satz}
\begin{proof}
\video{21-3}
\end{proof}
\begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren]
Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als
Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare
$a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung
gilt,
\[
\vec{τ} = \sum_i a_(\vec{u_i}\vec{v_i}).
\]
Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden
Index $i$ die Gleichung
$a_(\vec{u_i}\vec{v_i}) = (a_\vec{u_i})\vec{v_i}$. Es ist also nicht
nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren
schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen
Tensoren schreiben kann.
\end{bemerkung}
\begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7}
In der Situation von Satz~\ref{satz:15-2-5} sei $W$ ein weiterer
$k$-Vektorraum. In der Literatur (besonders in der physikalischen Literatur)
hat sich die Unart eingebürgert, lineare Abbildungen $Ψ: V⊗W → X$ durch einen
Text der folgenden Art zu definieren:
\[
Ψ: U⊗V → X, \quad \vec{u}\vec{v}(\text{Formel mit } \vec{u} \text{ und } \vec{v}).
\]
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor
$\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination
von reinen Tensoren,
\[
\vec{τ} = \sum a_\vec{v}_i⊗\vec{w}_i
\]
und setze
\[
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
\]
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so
``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
folge.
\end{notation}
\section{Erzeugendensysteme und Basen}
Satz~\ref{satz:15-2-5} erlaubt es, jeden Tensor als Linearkombination von reinen
Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beiden
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
Tensorproduktraum erhält.
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
folgende Menge von reinen Tensoren,
\begin{align}\label{system}
P := \big( \vec{u}_i⊗\vec{v}_j \big)_{(i,j) ∈ I J}
\end{align}
ein Erzeugendensystem für $U⊗V$.
\end{kor}
\begin{proof}
Wir müssen zeigen, dass jedes Element von $U⊗V$ eine Linearkombination von
Elementen aus $P$ ist. Da jedes Element von $U⊗V$ Linearkombination von
reinen Tensoren ist, genügt es zu zeigen, dass jeder reine Tensor eine
Linearkombination des obigen Systems ist. Sei also $\vec{u}\vec{v} ∈ U⊗V$
ein reiner Tensor. Per Annahme gibt es Linearkombinationen
\[
\vec{u} = \sum_{i ∈ I} a_\vec{u}_i,\quad \vec{v} = \sum_{j ∈ J}
b_\vec{v}_j.
\]
Dann ist
\begin{align*}
\vec{u}\vec{v} &= \left(\sum_{i ∈ I} a_\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
&= \sum_{i ∈ I} a_\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
&= \sum_{i ∈ I} a_\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
&= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente}
\end{align*}
Das beweist die Behauptung.
\end{proof}
\begin{kor}[Basen für Tensorprodukt]\label{kor:15-2-7}
In der Situation von Korollar~\ref{kor:15-2-6} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ Basen von $U$ und von $V$. Dann ist die Menge
$P$ eine Basis von $U⊗V$.
\end{kor}
\begin{proof}
Um zu zeigen, dass die Menge $P$ eine Basis ist, müssen wir die lineare
Unabhängigkeit beweisen. Als Vorbereitung für den Beweis der linearen
Unabhängigkeit betrachten wir die dualen Basen
$(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und
beachten, dass für jedes Paar $(i,j) ∈ I J$ von Indices die Abbildung
\[
s_{ij} : UV → k, \quad (\vec{u}, \vec{v})\vec{u}^{\:*}_i(\vec{u}) ·
\vec{v}^{\:*}_i(\vec{v})
\]
bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also
eine lineare Abbildung $η_{ij}: U⊗V → k$, so dass für alle $(α) ∈ I J$ gilt
\begin{align*}
η_{ij} (\vec{u}_α⊗\vec{v}_β) &= s_{ij}\bigl((\vec{u}_α, \vec{v}_β)\bigr) && \text{univ.~Eigenschaft} \\
& = \vec{u}^{\:*}_i(\vec{u}_α) · \vec{v}^{\:*}_i(\vec{v}_β) && \text{Definition von } s_{ij} \\
& = δ_{iα} · δ_{} = δ_{(αβ)(ij)}. && \text{Definition von dualer Basis}
\end{align*}
Zurück zum Beweis der linearen Unabhängigkeit: es sei eine lineare Relation
\begin{equation}\label{eq:fgh}
\vec{0}_{U⊗V} = \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β
\end{equation}
gegeben. Dann gilt für jedes Paar $(i,j) ∈ IJ$ von Indizes, dass
\begin{align*}
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
&= η_{ij} \left( \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
&= \sum_{(α,β) ∈ I J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
&= a_{ij}
\end{align*}
Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
\end{proof}
\begin{kor}[Dimensionsformel für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
\end{kor}
Wir haben oben gesehen, wie man auch zwei Basen für die Vektorräume $U$ und $V$
eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
Basen.
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
das Tensorprodukt $U⊗ V$ wie folgt anordnen:
\[
\underbrace{\vec{u}_1\vec{v}_1, …, \vec{u}_1\vec{v}_m}_{\text{beginnt mit }\vec{u}_1},
\underbrace{\vec{u}_2\vec{v}_1, …, \vec{u}_2\vec{v}_m}_{\text{beginnt mit }\vec{u}_2},
…,
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
\]
Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
Wie sie wissen, komme ich aus einem anderen Zeitalter.} angeordnet sind.
\end{konstruktion}
\section{Tensorprodukte von Abbildungen}
Die universelle Eigenschaft des Tensorprodukts garantiert sehr schnell, dass
Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
induzieren. Der folgende Satz macht diese Aussage präzise.
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
Abbildung
\[
ν : U_1⊗U_2 → V_1⊗V_2 ,
\]
so dass das folgende Diagramm kommutiert:
\[
\begin{tikzcd}[column sep=2cm]
U_1U_2 \ar[d, "τ_1"'] \ar[r, "f_1f_2"] & V_1V_2 \ar[d, "τ_2"]\\
U_1⊗U_2 \ar[r, "∃! ν"'] & V_1⊗V_2 .
\end{tikzcd}
\]
Dabei sind $τ_{}$ die Abbildungen, die zu den Tensorprodukten gehören und
$f_1f_2$ ist die komponentenweise Abbildung, also
\[
f_1f_2: U_1U_2 → V_1V_2, \quad (\vec{u}_1, \vec{u_2})\bigl(f_1(\vec{u}_1), f_2( \vec{u}_2)\bigr).
\]
\end{satz}
\begin{proof}
Rechnen Sie nach, dass die Abbildung $τ_2(f_1f_2): U_1U_2 → V_1⊗V_2$
bilinear ist. Existenz und Eindeutigkeit von $ν$ folgt dann direkt aus der
universellen Eigenschaft des Tensorprodukts.
\end{proof}
\begin{notation}[Tensorprodukte von Abbildungen]
In der Situation von Satz~\ref{satz:15-4-1} wird die Abbildung $ν$ oft als
\emph{Tensorprodukt der Abbildungen $f_1$ und $f_2$}\index{Tensorprodukt!von
Abbildungen} genannt und mit dem Symbol $f_1⊗f_2$ bezeichnet.
\end{notation}
Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
Matrizen diskutieren.
\begin{konstruktion}
Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
Matrizen
\[
A_1\Mat(a_1 b_1, k) \quad\text{und}\quad A_2\Mat(a_2 b_2, k)
\]
gegeben. Wir betrachten die zugehörigen linearen Abbildungen
\[
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
\varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}
\]
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
zugehörende darstellende Matrix von $\varphi_{A_1}\varphi_{A_1}$ bezüglich
dieser Produktbasen. Diese Matrix wird häufig als
\[
A_1⊗A_2\Mat((a_1·a_2) (b_1·b_2), k)
\]
geschrieben und als \emph{Kronecker-Produkt}\index{Kronecker-Produkt} oder
\emph{Tensorprodukt}\index{Tensorprodukt!von Matrizen} der Matrizen $A_1$ und
$A_2$ bezeichnet.
\end{konstruktion}
\begin{bemerkung}
Das Kronecker-Produkt ist also eine unangenehme Abbildung
\[
•⊗• : \Mat(a_1 b_1, k)\Mat(a_2 b_2,
k)\Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr)
\]
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
elementare Eigenschaften genannt. Der Leser wendet sich mit Grausen.
\end{bemerkung}
\begin{prop}
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
$\mathcal{B}_{U, •}$ von $U_{}$ und $\mathcal{B}_{V, •}$ von $V_{}$ gegeben.
Weiter seien $\mathcal{B}_{U, 1 2}$ und $\mathcal{B}_{V, 1 2}$ die
lexikographisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann
gilt für die darstellenden Matrizen die Gleichung
\[
\Mat^{\mathcal{B}_{U,1 2}}_{\mathcal{B}_{V,1 2}}(f_1⊗ f_2) =
\Mat^{\mathcal{B}_{U,1}}_{\mathcal{B}_{V,1}}(f_1)\Mat^{\mathcal{B}_{U,2}}_{\mathcal{B}_{V,2}}(f_2)
\]
\end{prop}
\begin{proof}
Keine Lust mehr.
\end{proof}
\section{Rechenregeln für Tensorprodukträume}
Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
Folge der universellen Eigenschaften.
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
es eine kanonische Isomorphie zwischen den direkten Summen
\[
\big( \bigoplus_{i ∈ I} U_i \big)⊗V \simeq \bigoplus_{i ∈ I} (U_i⊗V)
\eqno\qed
\]
\end{satz}
\begin{satz}
Es sei $k$ und Körper und es sei $V$ ein $k-$Vektorraum. Dann gibt es einen
kanonischen Isomorphismus zwischen den Vektorräumen $k⊗V$ und $V$.
\end{satz}
\begin{proof}
Die skalare Multiplikation
\[
m: kV → V, \quad (λ, \vec{v}) ↦ λ·\vec{v}
\]
ist bilinear. Also gibt es gemäß der universellen Eigenschaft des
Tensorprodukts genau eine lineare Abbildung $η$, so dass das folgende Diagramm
kommutiert,
\[
\begin{tikzcd}
kV \ar[d, equals] \ar[r, "τ"] & k⊗V \ar[d, "∃! η"]\\
kV \ar[r, "m"] & V.
\end{tikzcd}
\]
Die Abbildung $η$ ist surjektiv, denn wenn ein Vektor $\vec{v} ∈ V$ gegeben
ist, dann ist $\vec{v} = m(1, \vec{v})$. Die Abbildung $η$ ist aber auch
injektiv. Sei nämlich $\vec{x} ∈ kV$ im Kern von $η$. Dann kann ich
$\vec{x}$ darstellen als Summe von reinen Tensoren,
\[
\vec{x} = \sum λ_i⊗\vec{v}_i = \sum 1(λ_i \vec{v}_i) = 1\big (\sum λ_i
\vec{v}_i \big).
\]
Wir wissen dann $\vec{0}_V = η(\vec{x}) = 1 · (\sum λ_i \vec{v}_i)$.
Insgesamt gilt
\[
\vec{x} = 1\vec{0}_V = 1(0_k · \vec{0}_V) = 0_k · (1\vec{0}_V) =
\vec{0}_{k⊗V}.
\]
Die Injektivität von $η$ folgt also.
\end{proof}
% !TEX root = LineareAlgebra2