% spell checker language \selectlanguage{german} \chapter{Das Tensorprodukt} \label{sec:TProd} \sideremark{Vorlesung 21} \section{Worum geht es?} Wie immer sei $k$ ein Körper. Das Tensorprodukt von zwei $k$-Vektorräumen $U$ und $V$ ist ein neuer Vektorraum, genannt $U⊗V$, dessen wichtigste Eigenschaft es ist, dass all bilinearen Abbildungen von $U⨯V → W$ ``von $U⊗V$ kommen'', und zwar für jeden Vektorraum $W$. Die folgende Definition, die das Tensorprodukt mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung präzise. \begin{defn}[Tensorprodukt] Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein \emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U⨯V → T$, so dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U⨯V → W$ gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm kommutiert: \[ \begin{tikzcd}[column sep=2cm] U⨯V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\ U⨯V \ar[r, "s\text{, bilinear}"'] & W . \end{tikzcd} \] \end{defn} Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie. \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2} Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1 : U⨯ V → T_1$ und $τ_1 : U⨯ V → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$. \end{satz} \begin{proof} \video{21-1} \end{proof} Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten. \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3} Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann existiert ein Tensorprodukt. \end{satz} \begin{proof} \video{21-2} \end{proof} \begin{notation}[Tensorproduktraum]\label{not:15-1-3} Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der Literatur oft \emph{Tensoren}\index{Tensor}. \end{notation} \begin{notation}[Produkt von Vektoren]\label{not:15-1-4a} In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$ und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor $τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt und mit $\vec{u}⊗\vec{v}$ bezeichnet. \end{notation} \begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis $\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition, dass die Tensoren \[ \vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1, \quad\text{und}\quad \vec{e}_2⊗\vec{e}_2 \] linear unabhängig sind. \end{aufgabe} \section{Reine Tensoren} Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum $T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente der Form $\vec{u}⊗ \vec{v}$ --- von denen wir aber im Moment noch nicht einmal wissen, ob sie Null sind oder nicht. \begin{notation}[Reine Tensor]\label{not:15-1-4b} In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$ gegeben. Man nennt $\vec{τ}$ einen \emph{reinen Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren $\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}⊗\vec{v}$ ist. \end{notation} \begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig] Selbst wenn ein gegebener $\vec{τ} = \vec{u}⊗\vec{v} ∈ U⊗V$ ein reiner Tensor ist, ist die Darstellung als Tensorprodukt von Vektoren nicht eindeutig. Trivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung $τ : U⨯V → U⊗V$, dass für jedes Skalar $λ ∈ k∖ \{0\}$ die Gleichheit \[ \vec{u}⊗\vec{v} = (λ·\vec{u})⊗ (λ^{-1}·\vec{v}) \] gilt. Es gibt aber auch noch komplizierte Beispiele. \end{bemerkung} \begin{bemerkung} Betrachte die Situation aus Situation von Notation~\ref{not:15-1-4b}. Selbst für relativ einfache Vektorräume $U$ und $V$ ist die Frage, ob ein gegebener Tensor $\vec{τ} ∈ U⊗ V$ rein ist, im Allgemeinen nicht leicht zu beantworten. Im Spezialfall, wo $U = V$ ist, kann die Frage, ob für gegebene Vektoren $\vec{v}_1$, $\vec{v}_2 ∈ V$ die Gleichheit $\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ in $V⊗V$ gilt, ebenfalls überraschend schwer sein. \end{bemerkung} \begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] Beweisen Sie, dass der Tensor $\vec{e}_1⊗\vec{e}_1 + \vec{e}_2⊗\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$, $\vec{v}_2 ∈ ℝ²$, so dass die Gleichheit $\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, so dass die Gleichheit nicht gilt! \end{aufgabe} In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber die Tatsache, dass jeder Tensor eine Linearkombination von reinen Tensoren sind. Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren hinschreiben können. \begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5} Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann ist die Menge der reinen Tensoren, \[ R := \{ \vec{u}⊗ \vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v} ∈ V\}, \] ein Erzeugendensystem von $U⊗ V$. \end{satz} \begin{proof} \video{21-3} \end{proof} \begin{bemerkung}[Jeder Tensor ist Summe von reinen Tensoren] Satz~\ref{satz:15-2-5} sagt, dass ich jeden Tensor $\vec{τ} ∈ U⊗V$ als Linearkombination von reinen Tensoren schreiben kann. Also gibt es Skalare $a_i$ und Vektoren $\vec{u}_i$ und $\vec{v}_i$, so dass die folgende Gleichung gilt, \[ \vec{τ} = \sum_i a_i·(\vec{u_i}⊗\vec{v_i}). \] Wegen der Bilinearität der Tensorproduktabbildung $τ$ gilt aber für jeden Index $i$ die Gleichung $a_i·(\vec{u_i}⊗\vec{v_i}) = (a_i·\vec{u_i})⊗\vec{v_i}$. Es ist also nicht nur richtig, dass ich jeden Tensor als Linearkombination von reinen Tensoren schreiben kann, es gilt sogar, dass ich jeden Tensor als Summe von reinen Tensoren schreiben kann. \end{bemerkung} \begin{notation}[Lineare Abbildungen von Tensorprodukten]\label{15-2-7} In der Situation von Satz~\ref{satz:15-2-5} sei $W$ ein weiterer $k$-Vektorraum. In der Literatur (besonders in der physikalischen Literatur) hat sich die Unart eingebürgert, lineare Abbildungen $Ψ: V⊗W → X$ durch einen Text der folgenden Art zu definieren: \[ Ψ: U⊗V → X, \quad \vec{u}⊗\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}). \] Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen! Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor $\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination von reinen Tensoren, \[ \vec{τ} = \sum a_i·\vec{v}_i⊗\vec{w}_i \] und setze \[ Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i). \] Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so ``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die folge. \end{notation} \section{Erzeugendensysteme und Basen} Satz~\ref{satz:15-2-5} erlaubt es, jeden Tensor als Linearkombination von reinen Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beiden Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den Tensorproduktraum erhält. \begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6} In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$ und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die folgende Menge von reinen Tensoren, \begin{align}\label{system} P := \big( \vec{u}_i⊗\vec{v}_j \big)_{(i,j) ∈ I⨯ J} \end{align} ein Erzeugendensystem für $U⊗V$. \end{kor} \begin{proof} Wir müssen zeigen, dass jedes Element von $U⊗V$ eine Linearkombination von Elementen aus $P$ ist. Da jedes Element von $U⊗V$ Linearkombination von reinen Tensoren ist, genügt es zu zeigen, dass jeder reine Tensor eine Linearkombination des obigen Systems ist. Sei also $\vec{u}⊗\vec{v} ∈ U⊗V$ ein reiner Tensor. Per Annahme gibt es Linearkombinationen \[ \vec{u} = \sum_{i ∈ I} a_i·\vec{u}_i,\quad \vec{v} = \sum_{j ∈ J} b_j·\vec{v}_j. \] Dann ist \begin{align*} \vec{u}⊗\vec{v} &= \left(\sum_{i ∈ I} a_i·\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\ &= \sum_{i ∈ I} a_i·\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\ &= \sum_{i ∈ I} a_i·\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_j·\vec{v}_j \Big) \Big) && \text{Einsetzen}\\ &= \sum_{(i,j) ∈ I⨯ J} a_ib_j· \big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente} \end{align*} Das beweist die Behauptung. \end{proof} \begin{kor}[Basen für Tensorprodukt]\label{kor:15-2-7} In der Situation von Korollar~\ref{kor:15-2-6} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$ und $(\vec{v}_j)_{j ∈ J} ⊂ V$ Basen von $U$ und von $V$. Dann ist die Menge $P$ eine Basis von $U⊗V$. \end{kor} \begin{proof} Um zu zeigen, dass die Menge $P$ eine Basis ist, müssen wir die lineare Unabhängigkeit beweisen. Als Vorbereitung für den Beweis der linearen Unabhängigkeit betrachten wir die dualen Basen $(\vec{u}^{\:*}_i)_{i ∈ I} ⊂ U^*$ und $(\vec{v}^{\:*}_j)_{j ∈ J} ⊂ V^*$ und beachten, dass für jedes Paar $(i,j) ∈ I⨯ J$ von Indices die Abbildung \[ s_{ij} : U⨯V → k, \quad (\vec{u}, \vec{v}) ↦ \vec{u}^{\:*}_i(\vec{u}) · \vec{v}^{\:*}_i(\vec{v}) \] bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung $η_{ij}: U⊗V → k$, so dass für alle $(α,β) ∈ I⨯ J$ gilt \begin{align*} η_{ij} (\vec{u}_α⊗\vec{v}_β) &= s_{ij}\bigl((\vec{u}_α, \vec{v}_β)\bigr) && \text{univ.~Eigenschaft} \\ & = \vec{u}^{\:*}_i(\vec{u}_α) · \vec{v}^{\:*}_i(\vec{v}_β) && \text{Definition von } s_{ij} \\ & = δ_{iα} · δ_{jβ} = δ_{(αβ)(ij)}. && \text{Definition von dualer Basis} \end{align*} Zurück zum Beweis der linearen Unabhängigkeit: es sei eine lineare Relation \begin{equation}\label{eq:fgh} \vec{0}_{U⊗V} = \sum_{(α,β) ∈ I⨯ J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \end{equation} gegeben. Dann gilt für jedes Paar $(i,j) ∈ I⨯J$ von Indizes, dass \begin{align*} 0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\ &= η_{ij} \left( \sum_{(α,β) ∈ I⨯ J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\ &= \sum_{(α,β) ∈ I⨯ J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\ &= a_{ij} \end{align*} Damit ist die Relation \eqref{eq:fgh} offenbar trivial. \end{proof} \begin{kor}[Dimensionsformel für Tensorprodukte] Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale $k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed \end{kor} Wir haben oben gesehen, wie man auch zwei Basen für die Vektorräume $U$ und $V$ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten Basen. \begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte] Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale $k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und $\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für das Tensorprodukt $U⊗ V$ wie folgt anordnen: \[ \underbrace{\vec{u}_1⊗ \vec{v}_1, …, \vec{u}_1⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_1}, \underbrace{\vec{u}_2⊗ \vec{v}_1, …, \vec{u}_2⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_2}, …, \underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}. \] Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}. Wie sie wissen, komme ich aus einem anderen Zeitalter.} angeordnet sind. \end{konstruktion} \section{Tensorprodukte von Abbildungen} Die universelle Eigenschaft des Tensorprodukts garantiert sehr schnell, dass Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten induzieren. Der folgende Satz macht diese Aussage präzise. \begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1} Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$ lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare Abbildung \[ ν : U_1⊗U_2 → V_1⊗V_2 , \] so dass das folgende Diagramm kommutiert: \[ \begin{tikzcd}[column sep=2cm] U_1⨯U_2 \ar[d, "τ_1"'] \ar[r, "f_1⨯f_2"] & V_1⨯V_2 \ar[d, "τ_2"]\\ U_1⊗U_2 \ar[r, "∃! ν"'] & V_1⊗V_2 . \end{tikzcd} \] Dabei sind $τ_{•}$ die Abbildungen, die zu den Tensorprodukten gehören und $f_1⨯f_2$ ist die komponentenweise Abbildung, also \[ f_1⨯f_2: U_1⨯U_2 → V_1⨯V_2, \quad (\vec{u}_1, \vec{u_2}) ↦ \bigl(f_1(\vec{u}_1), f_2( \vec{u}_2)\bigr). \] \end{satz} \begin{proof} Rechnen Sie nach, dass die Abbildung $τ_2◦(f_1⨯f_2): U_1⨯U_2 → V_1⊗V_2$ bilinear ist. Existenz und Eindeutigkeit von $ν$ folgt dann direkt aus der universellen Eigenschaft des Tensorprodukts. \end{proof} \begin{notation}[Tensorprodukte von Abbildungen] In der Situation von Satz~\ref{satz:15-4-1} wird die Abbildung $ν$ oft als \emph{Tensorprodukt der Abbildungen $f_1$ und $f_2$}\index{Tensorprodukt!von Abbildungen} genannt und mit dem Symbol $f_1⊗f_2$ bezeichnet. \end{notation} Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von Matrizen diskutieren. \begin{konstruktion} Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie Matrizen \[ A_1 ∈ \Mat(a_1⨯ b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2⨯ b_2, k) \] gegeben. Wir betrachten die zugehörigen linearen Abbildungen \[ \varphi_{A_1} : k^{b_1} → k^{a_1},\quad % \varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad % \varphi_{A_1}⊗\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2} \] Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die zugehörende darstellende Matrix von $\varphi_{A_1}⊗\varphi_{A_1}$ bezüglich dieser Produktbasen. Diese Matrix wird häufig als \[ A_1⊗A_2 ∈ \Mat((a_1·a_2)⨯ (b_1·b_2), k) \] geschrieben und als \emph{Kronecker-Produkt}\index{Kronecker-Produkt} oder \emph{Tensorprodukt}\index{Tensorprodukt!von Matrizen} der Matrizen $A_1$ und $A_2$ bezeichnet. \end{konstruktion} \begin{bemerkung} Das Kronecker-Produkt ist also eine unangenehme Abbildung \[ •⊗• : \Mat(a_1⨯ b_1, k)⨯\Mat(a_2⨯ b_2, k) → \Mat\bigl((a_1·a_2)⨯ (b_1·b_2), k\bigr) \] Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige elementare Eigenschaften genannt. Der Leser wendet sich mit Grausen. \end{bemerkung} \begin{prop} In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen $\mathcal{B}_{U, •}$ von $U_{•}$ und $\mathcal{B}_{V, •}$ von $V_{•}$ gegeben. Weiter seien $\mathcal{B}_{U, 1⨯ 2}$ und $\mathcal{B}_{V, 1⨯ 2}$ die lexikographisch angeordneten Produktbasen von $U_1⨯U_2$ und $V_1⨯V_2$. Dann gilt für die darstellenden Matrizen die Gleichung \[ \Mat^{\mathcal{B}_{U,1⨯ 2}}_{\mathcal{B}_{V,1⨯ 2}}(f_1⊗ f_2) = \Mat^{\mathcal{B}_{U,1}}_{\mathcal{B}_{V,1}}(f_1)⊗\Mat^{\mathcal{B}_{U,2}}_{\mathcal{B}_{V,2}}(f_2) \] \end{prop} \begin{proof} Keine Lust mehr. \end{proof} \section{Rechenregeln für Tensorprodukträume} Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine Folge der universellen Eigenschaften. \begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1} Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von $k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt es eine kanonische Isomorphie zwischen den direkten Summen \[ \big( \bigoplus_{i ∈ I} U_i \big)⊗V \simeq \bigoplus_{i ∈ I} (U_i⊗V) \eqno\qed \] \end{satz} \begin{satz} Es sei $k$ und Körper und es sei $V$ ein $k-$Vektorraum. Dann gibt es einen kanonischen Isomorphismus zwischen den Vektorräumen $k⊗V$ und $V$. \end{satz} \begin{proof} Die skalare Multiplikation \[ m: k⨯V → V, \quad (λ, \vec{v}) ↦ λ·\vec{v} \] ist bilinear. Also gibt es gemäß der universellen Eigenschaft des Tensorprodukts genau eine lineare Abbildung $η$, so dass das folgende Diagramm kommutiert, \[ \begin{tikzcd} k⨯V \ar[d, equals] \ar[r, "τ"] & k⊗V \ar[d, "∃! η"]\\ k⨯V \ar[r, "m"] & V. \end{tikzcd} \] Die Abbildung $η$ ist surjektiv, denn wenn ein Vektor $\vec{v} ∈ V$ gegeben ist, dann ist $\vec{v} = m(1, \vec{v})$. Die Abbildung $η$ ist aber auch injektiv. Sei nämlich $\vec{x} ∈ k⨯V$ im Kern von $η$. Dann kann ich $\vec{x}$ darstellen als Summe von reinen Tensoren, \[ \vec{x} = \sum λ_i⊗\vec{v}_i = \sum 1⊗(λ_i \vec{v}_i) = 1 ⊗\big (\sum λ_i \vec{v}_i \big). \] Wir wissen dann $\vec{0}_V = η(\vec{x}) = 1 · (\sum λ_i \vec{v}_i)$. Insgesamt gilt \[ \vec{x} = 1⊗\vec{0}_V = 1⊗(0_k · \vec{0}_V) = 0_k · (1⊗\vec{0}_V) = \vec{0}_{k⊗V}. \] Die Injektivität von $η$ folgt also. \end{proof} % !TEX root = LineareAlgebra2