From e319086277c39cf85d7327392bd03c7fbfcd3c18 Mon Sep 17 00:00:00 2001 From: Stefan Kebekus Date: Mon, 30 Jun 2025 08:28:39 +0200 Subject: [PATCH] Fix typos --- .vscode/ltex.dictionary.de-DE.txt | 7 ++ .vscode/ltex.hiddenFalsePositives.de-DE.txt | 3 + 01-Wiederholung.tex | 2 +- 02-Jordan.tex | 4 +- 04-Cayley-Hamilton.tex | 2 +- 05-Skalarprodukt-im-Rn.tex | 2 +- 12-Anwendungen.tex | 21 ++-- 15-tensor.tex | 107 ++++++++++---------- 8 files changed, 78 insertions(+), 70 deletions(-) diff --git a/.vscode/ltex.dictionary.de-DE.txt b/.vscode/ltex.dictionary.de-DE.txt index 64b75a0..f9e42c3 100644 --- a/.vscode/ltex.dictionary.de-DE.txt +++ b/.vscode/ltex.dictionary.de-DE.txt @@ -90,3 +90,10 @@ Hurwitz-Kriteriums Hurwitz-Kriterium Determinantenabbildung Eindeutigkeitsbeweis +Tensorproduktraum +Trivialbeispiel +Erzeugendensysteme +Kronecker-Produkt +Kronecker +Tensorprodukträume +Tensorproduktkonstruktion diff --git a/.vscode/ltex.hiddenFalsePositives.de-DE.txt b/.vscode/ltex.hiddenFalsePositives.de-DE.txt index 56bc37d..3026d04 100644 --- a/.vscode/ltex.hiddenFalsePositives.de-DE.txt +++ b/.vscode/ltex.hiddenFalsePositives.de-DE.txt @@ -60,3 +60,6 @@ {"rule":"DE_CASE","sentence":"^\\QEs sei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ein Körper, es seien \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zwei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Vektorräume und es seien lineare Funktionale \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gegeben.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"} +{"rule":"DE_AGREEMENT","sentence":"^\\QTrivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dass für jedes Skalar \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichheit \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt.\\E$"} +{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"} +{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"} diff --git a/01-Wiederholung.tex b/01-Wiederholung.tex index 781c1a7..388c531 100644 --- a/01-Wiederholung.tex +++ b/01-Wiederholung.tex @@ -21,7 +21,7 @@ Diagonalgestalt hat. \begin{defn}[Diagonalisierbarer Endomorphismus] In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt \emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine - Basis $B$ von $V$ gibt, sodass $\Mat^B_B$ eine Diagonalmatrix ist. + Basis $B$ von $V$ gibt, sodass $\Mat^B_B(f)$ eine Diagonalmatrix ist. \end{defn} Einen entsprechenden Begriff hatten wir auch für Matrizen definiert. diff --git a/02-Jordan.tex b/02-Jordan.tex index c5d6794..8c8b10f 100644 --- a/02-Jordan.tex +++ b/02-Jordan.tex @@ -755,8 +755,8 @@ folgt vor. \] Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$. -\item Für jeden Index $i$ betrachte $g_i := (f - λ·\Id_V)|_{W_i}$ --- wir wissen - schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist. +\item Für jeden Index $i$ betrachte $g_i := (f - λ_i·\Id_V)|_{W_i}$ --- wir + wissen schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist. \item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und die duale Partition diff --git a/04-Cayley-Hamilton.tex b/04-Cayley-Hamilton.tex index 749c1e8..a581c81 100644 --- a/04-Cayley-Hamilton.tex +++ b/04-Cayley-Hamilton.tex @@ -197,7 +197,7 @@ Diese Beobachtungen legen folgende Definition nahe. \end{bsp} \begin{beobachtung} - Beobachtung~\ref{beob:4-0-6} zeigt: ähnliche Matrizen haben dasselbe + Beobachtung~\ref{beob:4-0-6} zeigt: Ähnliche Matrizen haben dasselbe Minimalpolynom. \end{beobachtung} diff --git a/05-Skalarprodukt-im-Rn.tex b/05-Skalarprodukt-im-Rn.tex index 31fe4bb..e4bcbcf 100644 --- a/05-Skalarprodukt-im-Rn.tex +++ b/05-Skalarprodukt-im-Rn.tex @@ -249,7 +249,7 @@ scheint. Standardskalarprodukts. \end{bsp} -Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral. +Die folgende einfache Beobachtung ist für viele der folgenden Beweise zentral. \begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}% Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $ℝ^n$ diff --git a/12-Anwendungen.tex b/12-Anwendungen.tex index ff7d5ac..788f981 100644 --- a/12-Anwendungen.tex +++ b/12-Anwendungen.tex @@ -12,12 +12,12 @@ Die Begriffe und Methoden des laufenden Kapitels über „Euklidische und Hermitesche Vektorräume“ haben enorm viele Anwendungen. Tatsächlich handelt es sich bei vielen der heißen Themen zu „Machine Learning“, „Collective Intelligence“ oder „Artificial Intelligence“ um relativ einfache Methoden der -linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können -- -schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine -unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen -und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass Mathematik nicht -notwendig kompliziert sein muss, um Nützlich zu sein. Ich reiße in diesem -Kapitel einige Anwendungen oberflächlich an +linearen Algebra, die wir bei unserem Stand der Debatte sehr gut verstehen +können -- schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es +eine unendliche Menge von hervorragenden Tutorials, Erklärvideos, +Projektvorschlägen und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass +Mathematik nicht notwendig kompliziert sein muss, um Nützlich zu sein. Ich +reiße in diesem Kapitel einige Anwendungen oberflächlich an Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig @@ -445,9 +445,8 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken. \begin{itemize} \item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper im Schwerefeld bewegen. Wir kennen die Wurfparabel, die elliptischen - Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von Satelliten - beim Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken - auf? + Umlaufbahnen von Planeten um die Sonne und Hyperbelbahnen von Raumsonden beim + Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken auf? \item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter @@ -618,8 +617,8 @@ wird dann die Formel f(x) = \frac{1}{\sqrt{2π}}·\int_{-∞}^{∞} F(t)·e^{-itx}dt. \] Die Funktion $F$ nennt man „Fourier-Transformierte“ oder „Spektrum“. Spektren -gibt es in der reellen Welt überall zum Beispiel in unserem Ohr. Das Ohr ist -ein „Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der +spielen in der reellen Welt überall eine Rolle. Das Ohr ist ein +„Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der eingehenden Schallwelle berechnet und zum Gehirn weiterleitet. Wenn man Akustik verstehen will, muss man Fourier-Transformation verstehen. Dann kann man super-interessante Sachen machen. diff --git a/15-tensor.tex b/15-tensor.tex index 5375f1d..f11bdf1 100644 --- a/15-tensor.tex +++ b/15-tensor.tex @@ -15,12 +15,12 @@ mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung präzise. \begin{defn}[Tensorprodukt] - Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein + Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Ein \emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist - ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U⨯V → T$, so - dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U⨯V → W$ - gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm - kommutiert: + ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U ⨯ V → T$, + sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U ⨯ V → + W$ gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende + Diagramm kommutiert: \[ \begin{tikzcd}[column sep=2cm] U⨯V \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\ @@ -33,7 +33,7 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie. \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2} - Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter + Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter seien $τ_1 : U⨯ V → T_1$ und $τ_1 : U⨯ V → T_2$ zwei Tensorprodukte. Dann gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$. \end{satz} @@ -44,33 +44,33 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten. \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3} - Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann + Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann existiert ein Tensorprodukt. \end{satz} \begin{proof} \video{21-2} \end{proof} -\begin{notation}[Tensorproduktraum]\label{not:15-1-3} - Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen +\begin{notation}[Tensorproduktraum]\label{not:15-1-3}% + Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Wegen Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der Literatur oft \emph{Tensoren}\index{Tensor}. \end{notation} -\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a} +\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}% In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$ - und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor - $τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der - Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt - und mit $\vec{u}⊗\vec{v}$ bezeichnet. + und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor $τ\bigl( (\vec{u}, \vec{v}) + \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der Vektoren $\vec{u}$ und + $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt und mit $\vec{u}⊗\vec{v}$ + bezeichnet. \end{notation} -\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] - Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis - $\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition, - dass die Tensoren +\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]% + Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis $\{ \vec{e}_1, + \vec{e}_2 \}$ und beweisen Sie direkt mithilfe der Definition, dass die + Tensoren \[ \vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1, \quad\text{und}\quad \vec{e}_2⊗\vec{e}_2 @@ -83,15 +83,15 @@ Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten. Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum $T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum -überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente -der Form $\vec{u}⊗ \vec{v}$ --- von denen wir aber im Moment noch nicht einmal +überhaupt hat. Die einzigen Elemente, die wir direkt sehen, sind Elemente der +Form $\vec{u}⊗ \vec{v}$ --- von denen wir aber im Moment noch nicht einmal wissen, ob sie Null sind oder nicht. -\begin{notation}[Reine Tensor]\label{not:15-1-4b} +\begin{notation}[Reine Tensor]\label{not:15-1-4b}% In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$ gegeben. Man nennt $\vec{τ}$ einen \emph{reinen - Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren - $\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}⊗\vec{v}$ ist. + Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren $\vec{u} ∈ + U$ und $\vec{v} ∈ V$ gibt, sodass $\vec{τ} = \vec{u}⊗\vec{v}$ ist. \end{notation} \begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig] @@ -116,12 +116,11 @@ wissen, ob sie Null sind oder nicht. \end{bemerkung} \begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] - Beweisen Sie, dass der Tensor - $\vec{e}_1⊗\vec{e}_1 + \vec{e}_2⊗\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner - Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$, - $\vec{v}_2 ∈ ℝ²$, so dass die Gleichheit - $\vec{v}_1⊗\vec{v}_2 = \vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, so - dass die Gleichheit nicht gilt! + Beweisen Sie, dass der Tensor $\vec{e}_1⊗\vec{e}_1 + \vec{e}_2⊗\vec{e}_2 ∈ ℝ² + ⊗ ℝ²$ \emph{kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren + $\vec{v}_1$, $\vec{v}_2 ∈ ℝ²$, sodass die Gleichheit $\vec{v}_1⊗\vec{v}_2 = + \vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, sodass die Gleichheit nicht + gilt! \end{aufgabe} In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber @@ -130,7 +129,7 @@ Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren hinschreiben können. \begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5} - Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann + Es sei $k$ ein Körper $U$ und $V$ zwei $k$-Vektorräume. Dann ist die Menge der reinen Tensoren, \[ R := \{ \vec{u}⊗ \vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v} ∈ @@ -167,9 +166,9 @@ hinschreiben können. Ψ: U⊗V → X, \quad \vec{u}⊗\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}). \] Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen! - Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor - $\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination - von reinen Tensoren, + Gemeint ist mit dieser „Definition“ folgendes: gegeben einen Tensor $\vec{τ} ∈ + U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination von reinen + Tensoren, \[ \vec{τ} = \sum a_i·\vec{v}_i⊗\vec{w}_i \] @@ -178,11 +177,11 @@ hinschreiben können. Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i). \] Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn - man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so - ``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der + man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: Der so + „definierte“ Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die - folge. + Folge. \end{notation} @@ -193,7 +192,7 @@ Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beide Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den Tensorproduktraum erhält. -\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6} +\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}% In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$ und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die folgende Menge von reinen Tensoren, @@ -217,7 +216,7 @@ Tensorproduktraum erhält. \vec{u}⊗\vec{v} &= \left(\sum_{i ∈ I} a_i·\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\ &= \sum_{i ∈ I} a_i·\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\ &= \sum_{i ∈ I} a_i·\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_j·\vec{v}_j \Big) \Big) && \text{Einsetzen}\\ - &= \sum_{(i,j) ∈ I⨯ J} a_ib_j· \big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente} + &= \sum_{(i,j) ∈ I⨯ J} a_ib_j· \big(\vec{u}_i⊗\vec{b}_j \big) && \text{Linearität von $τ$ in 2.~Komponente}. \end{align*} Das beweist die Behauptung. \end{proof} @@ -238,7 +237,7 @@ Tensorproduktraum erhält. \vec{v}^{\:*}_i(\vec{v}) \] bilinear ist. Entsprechend der universellen Eigenschaft erhalten wir also - eine lineare Abbildung $η_{ij}: U⊗V → k$, so dass für alle $(α,β) ∈ I⨯ J$ gilt + eine lineare Abbildung $η_{ij}: U⊗V → k$, sodass für alle $(α,β) ∈ I⨯ J$ gilt \begin{align*} η_{ij} (\vec{u}_α⊗\vec{v}_β) &= s_{ij}\bigl((\vec{u}_α, \vec{v}_β)\bigr) && \text{univ.~Eigenschaft} \\ & = \vec{u}^{\:*}_i(\vec{u}_α) · \vec{v}^{\:*}_i(\vec{v}_β) && \text{Definition von } s_{ij} \\ @@ -254,13 +253,13 @@ Tensorproduktraum erhält. 0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\ &= η_{ij} \left( \sum_{(α,β) ∈ I⨯ J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\ &= \sum_{(α,β) ∈ I⨯ J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\ - &= a_{ij} + &= a_{ij}. \end{align*} Damit ist die Relation \eqref{eq:fgh} offenbar trivial. \end{proof} \begin{kor}[Dimensionsformel für Tensorprodukte] - Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale + Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale $k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed \end{kor} @@ -269,7 +268,7 @@ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten Basen. \begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte] - Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale + Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale $k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und $\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für das Tensorprodukt $U⊗ V$ wie folgt anordnen: @@ -279,9 +278,9 @@ Basen. …, \underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}. \] - Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische + Diese Anordnung heiße \emph{lexikografische Anordnung}\index{lexikografische Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem - Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des + Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}. Wie sie wissen, komme ich aus einem anderen Zeitalter.} angeordnet sind. \end{konstruktion} @@ -294,13 +293,13 @@ Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten induzieren. Der folgende Satz macht diese Aussage präzise. \begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1} - Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$ + Es sei $k$ ein Körper und $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$ lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare Abbildung \[ - ν : U_1⊗U_2 → V_1⊗V_2 , + ν : U_1⊗U_2 → V_1⊗V_2, \] - so dass das folgende Diagramm kommutiert: + sodass das folgende Diagramm kommutiert: \[ \begin{tikzcd}[column sep=2cm] U_1⨯U_2 \ar[d, "τ_1"'] \ar[r, "f_1⨯f_2"] & V_1⨯V_2 \ar[d, "τ_2"]\\ @@ -329,7 +328,7 @@ Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von Matrizen diskutieren. \begin{konstruktion} - Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie + Es sei $k$ ein Körper und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie Matrizen \[ A_1 ∈ \Mat(a_1⨯ b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2⨯ b_2, k) @@ -338,10 +337,10 @@ Matrizen diskutieren. \[ \varphi_{A_1} : k^{b_1} → k^{a_1},\quad % \varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad % - \varphi_{A_1}⊗\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2} + \varphi_{A_1}⊗\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}. \] Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils - mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten + mit den kanonischen Standardbasen aus, wählen die lexikografisch angeordneten Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die zugehörende darstellende Matrix von $\varphi_{A_1}⊗\varphi_{A_1}$ bezüglich dieser Produktbasen. Diese Matrix wird häufig als @@ -357,7 +356,7 @@ Matrizen diskutieren. Das Kronecker-Produkt ist also eine unangenehme Abbildung \[ •⊗• : \Mat(a_1⨯ b_1, k)⨯\Mat(a_2⨯ b_2, - k) → \Mat\bigl((a_1·a_2)⨯ (b_1·b_2), k\bigr) + k) → \Mat\bigl((a_1·a_2)⨯ (b_1·b_2), k\bigr). \] Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige @@ -368,7 +367,7 @@ Matrizen diskutieren. In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen $\mathcal{B}_{U, •}$ von $U_{•}$ und $\mathcal{B}_{V, •}$ von $V_{•}$ gegeben. Weiter seien $\mathcal{B}_{U, 1⨯ 2}$ und $\mathcal{B}_{V, 1⨯ 2}$ die - lexikographisch angeordneten Produktbasen von $U_1⨯U_2$ und $V_1⨯V_2$. Dann + lexikografisch angeordneten Produktbasen von $U_1⨯U_2$ und $V_1⨯V_2$. Dann gilt für die darstellenden Matrizen die Gleichung \[ \Mat^{\mathcal{B}_{U,1⨯ 2}}_{\mathcal{B}_{V,1⨯ 2}}(f_1⊗ f_2) = @@ -386,7 +385,7 @@ Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine Folge der universellen Eigenschaften. -\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1} +\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}% Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von $k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt es eine kanonische Isomorphie zwischen den direkten Summen @@ -406,7 +405,7 @@ Folge der universellen Eigenschaften. m: k⨯V → V, \quad (λ, \vec{v}) ↦ λ·\vec{v} \] ist bilinear. Also gibt es gemäß der universellen Eigenschaft des - Tensorprodukts genau eine lineare Abbildung $η$, so dass das folgende Diagramm + Tensorprodukts genau eine lineare Abbildung $η$, sodass das folgende Diagramm kommutiert, \[ \begin{tikzcd}