Fix typos

This commit is contained in:
Stefan Kebekus 2025-06-30 08:28:39 +02:00
parent b8152c6101
commit e319086277
8 changed files with 78 additions and 70 deletions

View File

@ -90,3 +90,10 @@ Hurwitz-Kriteriums
Hurwitz-Kriterium Hurwitz-Kriterium
Determinantenabbildung Determinantenabbildung
Eindeutigkeitsbeweis Eindeutigkeitsbeweis
Tensorproduktraum
Trivialbeispiel
Erzeugendensysteme
Kronecker-Produkt
Kronecker
Tensorprodukträume
Tensorproduktkonstruktion

View File

@ -60,3 +60,6 @@
{"rule":"DE_CASE","sentence":"^\\QEs sei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ein Körper, es seien \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zwei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Vektorräume und es seien lineare Funktionale \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gegeben.\\E$"} {"rule":"DE_CASE","sentence":"^\\QEs sei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ein Körper, es seien \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zwei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Vektorräume und es seien lineare Funktionale \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gegeben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"} {"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QTrivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dass für jedes Skalar \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichheit \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}

View File

@ -21,7 +21,7 @@ Diagonalgestalt hat.
\begin{defn}[Diagonalisierbarer Endomorphismus] \begin{defn}[Diagonalisierbarer Endomorphismus]
In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine \emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine
Basis $B$ von $V$ gibt, sodass $\Mat^B_B$ eine Diagonalmatrix ist. Basis $B$ von $V$ gibt, sodass $\Mat^B_B(f)$ eine Diagonalmatrix ist.
\end{defn} \end{defn}
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert. Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.

View File

@ -755,8 +755,8 @@ folgt vor.
\] \]
Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$. Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$.
\item Für jeden Index $i$ betrachte $g_i := (f - λ·\Id_V)|_{W_i}$ --- wir wissen \item Für jeden Index $i$ betrachte $g_i := (f - λ_i·\Id_V)|_{W_i}$ --- wir
schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist. wissen schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
\item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und \item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und
die duale Partition die duale Partition

View File

@ -197,7 +197,7 @@ Diese Beobachtungen legen folgende Definition nahe.
\end{bsp} \end{bsp}
\begin{beobachtung} \begin{beobachtung}
Beobachtung~\ref{beob:4-0-6} zeigt: ähnliche Matrizen haben dasselbe Beobachtung~\ref{beob:4-0-6} zeigt: Ähnliche Matrizen haben dasselbe
Minimalpolynom. Minimalpolynom.
\end{beobachtung} \end{beobachtung}

View File

@ -249,7 +249,7 @@ scheint.
Standardskalarprodukts. Standardskalarprodukts.
\end{bsp} \end{bsp}
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral. Die folgende einfache Beobachtung ist für viele der folgenden Beweise zentral.
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}% \begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}%
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $^n$ Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $^n$

View File

@ -12,12 +12,12 @@ Die Begriffe und Methoden des laufenden Kapitels über „Euklidische und
Hermitesche Vektorräume“ haben enorm viele Anwendungen. Tatsächlich handelt es Hermitesche Vektorräume“ haben enorm viele Anwendungen. Tatsächlich handelt es
sich bei vielen der heißen Themen zu „Machine Learning“, „Collective sich bei vielen der heißen Themen zu „Machine Learning“, „Collective
Intelligence“ oder „Artificial Intelligence“ um relativ einfache Methoden der Intelligence“ oder „Artificial Intelligence“ um relativ einfache Methoden der
linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können -- linearen Algebra, die wir bei unserem Stand der Debatte sehr gut verstehen
schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine können -- schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es
unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen eine unendliche Menge von hervorragenden Tutorials, Erklärvideos,
und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass Mathematik nicht Projektvorschlägen und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass
notwendig kompliziert sein muss, um Nützlich zu sein. Ich reiße in diesem Mathematik nicht notwendig kompliziert sein muss, um Nützlich zu sein. Ich
Kapitel einige Anwendungen oberflächlich an reiße in diesem Kapitel einige Anwendungen oberflächlich an
Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer
Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig
@ -445,9 +445,8 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
\begin{itemize} \begin{itemize}
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper \item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
im Schwerefeld bewegen. Wir kennen die Wurfparabel, die elliptischen im Schwerefeld bewegen. Wir kennen die Wurfparabel, die elliptischen
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von Satelliten Umlaufbahnen von Planeten um die Sonne und Hyperbelbahnen von Raumsonden beim
beim Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken auf?
auf?
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass \item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
@ -618,8 +617,8 @@ wird dann die Formel
f(x) = \frac{1}{\sqrt{}}·\int_{-∞}^{} F(t)·e^{-itx}dt. f(x) = \frac{1}{\sqrt{}}·\int_{-∞}^{} F(t)·e^{-itx}dt.
\] \]
Die Funktion $F$ nennt man „Fourier-Transformierte“ oder „Spektrum“. Spektren Die Funktion $F$ nennt man „Fourier-Transformierte“ oder „Spektrum“. Spektren
gibt es in der reellen Welt überall zum Beispiel in unserem Ohr. Das Ohr ist spielen in der reellen Welt überall eine Rolle. Das Ohr ist ein
ein „Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der „Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der
eingehenden Schallwelle berechnet und zum Gehirn weiterleitet. Wenn man Akustik eingehenden Schallwelle berechnet und zum Gehirn weiterleitet. Wenn man Akustik
verstehen will, muss man Fourier-Transformation verstehen. Dann kann man verstehen will, muss man Fourier-Transformation verstehen. Dann kann man
super-interessante Sachen machen. super-interessante Sachen machen.

View File

@ -15,12 +15,12 @@ mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise. präzise.
\begin{defn}[Tensorprodukt] \begin{defn}[Tensorprodukt]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Ein
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist \emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: UV → T$, so ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U V → T$,
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: UV → W$ sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U V →
gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm W$ gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende
kommutiert: Diagramm kommutiert:
\[ \[
\begin{tikzcd}[column sep=2cm] \begin{tikzcd}[column sep=2cm]
UV \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\ UV \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
@ -33,7 +33,7 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie. überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2} \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter
seien $τ_1 : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann seien $τ_1 : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$. gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\end{satz} \end{satz}
@ -44,33 +44,33 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten. Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3} \begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann
existiert ein Tensorprodukt. existiert ein Tensorprodukt.
\end{satz} \end{satz}
\begin{proof} \begin{proof}
\video{21-2} \video{21-2}
\end{proof} \end{proof}
\begin{notation}[Tensorproduktraum]\label{not:15-1-3} \begin{notation}[Tensorproduktraum]\label{not:15-1-3}%
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Wegen
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
Literatur oft \emph{Tensoren}\index{Tensor}. Literatur oft \emph{Tensoren}\index{Tensor}.
\end{notation} \end{notation}
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a} \begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}%
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$ In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor $τ\bigl( (\vec{u}, \vec{v})
$τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der Vektoren $\vec{u}$ und
Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt und mit $\vec{u}\vec{v}$
und mit $\vec{u}\vec{v}$ bezeichnet. bezeichnet.
\end{notation} \end{notation}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] \begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]%
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis $\{ \vec{e}_1,
$\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition, \vec{e}_2 \}$ und beweisen Sie direkt mithilfe der Definition, dass die
dass die Tensoren Tensoren
\[ \[
\vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1, \vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1,
\quad\text{und}\quad \vec{e}_2⊗\vec{e}_2 \quad\text{und}\quad \vec{e}_2⊗\vec{e}_2
@ -83,15 +83,15 @@ Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum $T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente überhaupt hat. Die einzigen Elemente, die wir direkt sehen, sind Elemente der
der Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal
wissen, ob sie Null sind oder nicht. wissen, ob sie Null sind oder nicht.
\begin{notation}[Reine Tensor]\label{not:15-1-4b} \begin{notation}[Reine Tensor]\label{not:15-1-4b}%
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$ In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren $\vec{u}
$\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}\vec{v}$ ist. U$ und $\vec{v} ∈ V$ gibt, sodass $\vec{τ} = \vec{u}\vec{v}$ ist.
\end{notation} \end{notation}
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig] \begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
@ -116,12 +116,11 @@ wissen, ob sie Null sind oder nicht.
\end{bemerkung} \end{bemerkung}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!] \begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Beweisen Sie, dass der Tensor Beweisen Sie, dass der Tensor $\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ²
$\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner ⊗ ℝ²$ \emph{kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren
Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$, $\vec{v}_1$, $\vec{v}_2 ∈ ℝ²$, sodass die Gleichheit $\vec{v}_1\vec{v}_2 =
$\vec{v}_2 ∈ ℝ²$, so dass die Gleichheit \vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, sodass die Gleichheit nicht
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ gilt! Finden Sie Vektoren, so gilt!
dass die Gleichheit nicht gilt!
\end{aufgabe} \end{aufgabe}
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
@ -130,7 +129,7 @@ Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
hinschreiben können. hinschreiben können.
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5} \begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann Es sei $k$ ein Körper $U$ und $V$ zwei $k$-Vektorräume. Dann
ist die Menge der reinen Tensoren, ist die Menge der reinen Tensoren,
\[ \[
R := \{ \vec{u}\vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v} R := \{ \vec{u}\vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v}
@ -167,9 +166,9 @@ hinschreiben können.
Ψ: U⊗V → X, \quad \vec{u}\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}). Ψ: U⊗V → X, \quad \vec{u}\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}).
\] \]
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen! Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor Gemeint ist mit dieser „Definition“ folgendes: gegeben einen Tensor $\vec{τ}
$\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination von reinen
von reinen Tensoren, Tensoren,
\[ \[
\vec{τ} = \sum a_\vec{v}_i⊗\vec{w}_i \vec{τ} = \sum a_\vec{v}_i⊗\vec{w}_i
\] \]
@ -178,11 +177,11 @@ hinschreiben können.
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i). Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
\] \]
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: Der so
``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der „definierte“ Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
folge. Folge.
\end{notation} \end{notation}
@ -193,7 +192,7 @@ Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beide
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
Tensorproduktraum erhält. Tensorproduktraum erhält.
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6} \begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}%
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$ In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
folgende Menge von reinen Tensoren, folgende Menge von reinen Tensoren,
@ -217,7 +216,7 @@ Tensorproduktraum erhält.
\vec{u}\vec{v} &= \left(\sum_{i ∈ I} a_\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\ \vec{u}\vec{v} &= \left(\sum_{i ∈ I} a_\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
&= \sum_{i ∈ I} a_\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\ &= \sum_{i ∈ I} a_\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
&= \sum_{i ∈ I} a_\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_\vec{v}_j \Big) \Big) && \text{Einsetzen}\\ &= \sum_{i ∈ I} a_\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
&= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente} &= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big) && \text{Linearität von $τ$ in 2.~Komponente}.
\end{align*} \end{align*}
Das beweist die Behauptung. Das beweist die Behauptung.
\end{proof} \end{proof}
@ -254,13 +253,13 @@ Tensorproduktraum erhält.
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\ 0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
&= η_{ij} \left( \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\ &= η_{ij} \left( \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
&= \sum_{(α,β) ∈ I J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\ &= \sum_{(α,β) ∈ I J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
&= a_{ij} &= a_{ij}.
\end{align*} \end{align*}
Damit ist die Relation \eqref{eq:fgh} offenbar trivial. Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
\end{proof} \end{proof}
\begin{kor}[Dimensionsformel für Tensorprodukte] \begin{kor}[Dimensionsformel für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed $k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
\end{kor} \end{kor}
@ -269,7 +268,7 @@ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
Basen. Basen.
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte] \begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und $k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für $\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
das Tensorprodukt $U⊗ V$ wie folgt anordnen: das Tensorprodukt $U⊗ V$ wie folgt anordnen:
@ -279,7 +278,7 @@ Basen.
…, …,
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}. \underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
\] \]
Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische Diese Anordnung heiße \emph{lexikografische Anordnung}\index{lexikografische
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}. Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
@ -294,7 +293,7 @@ Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
induzieren. Der folgende Satz macht diese Aussage präzise. induzieren. Der folgende Satz macht diese Aussage präzise.
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1} \begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$ Es sei $k$ ein Körper und $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
Abbildung Abbildung
\[ \[
@ -329,7 +328,7 @@ Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
Matrizen diskutieren. Matrizen diskutieren.
\begin{konstruktion} \begin{konstruktion}
Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie Es sei $k$ ein Körper und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
Matrizen Matrizen
\[ \[
A_1 ∈ \Mat(a_1 b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2 b_2, k) A_1 ∈ \Mat(a_1 b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2 b_2, k)
@ -338,10 +337,10 @@ Matrizen diskutieren.
\[ \[
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad % \varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad % \varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
\varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2} \varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}.
\] \]
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten mit den kanonischen Standardbasen aus, wählen die lexikografisch angeordneten
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
zugehörende darstellende Matrix von $\varphi_{A_1}\varphi_{A_1}$ bezüglich zugehörende darstellende Matrix von $\varphi_{A_1}\varphi_{A_1}$ bezüglich
dieser Produktbasen. Diese Matrix wird häufig als dieser Produktbasen. Diese Matrix wird häufig als
@ -357,7 +356,7 @@ Matrizen diskutieren.
Das Kronecker-Produkt ist also eine unangenehme Abbildung Das Kronecker-Produkt ist also eine unangenehme Abbildung
\[ \[
•⊗• : \Mat(a_1 b_1, k)\Mat(a_2 b_2, •⊗• : \Mat(a_1 b_1, k)\Mat(a_2 b_2,
k) → \Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr) k) → \Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr).
\] \]
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
@ -368,7 +367,7 @@ Matrizen diskutieren.
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
$\mathcal{B}_{U, •}$ von $U_{}$ und $\mathcal{B}_{V, •}$ von $V_{}$ gegeben. $\mathcal{B}_{U, •}$ von $U_{}$ und $\mathcal{B}_{V, •}$ von $V_{}$ gegeben.
Weiter seien $\mathcal{B}_{U, 1 2}$ und $\mathcal{B}_{V, 1 2}$ die Weiter seien $\mathcal{B}_{U, 1 2}$ und $\mathcal{B}_{V, 1 2}$ die
lexikographisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann lexikografisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann
gilt für die darstellenden Matrizen die Gleichung gilt für die darstellenden Matrizen die Gleichung
\[ \[
\Mat^{\mathcal{B}_{U,1 2}}_{\mathcal{B}_{V,1 2}}(f_1⊗ f_2) = \Mat^{\mathcal{B}_{U,1 2}}_{\mathcal{B}_{V,1 2}}(f_1⊗ f_2) =
@ -386,7 +385,7 @@ Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
Folge der universellen Eigenschaften. Folge der universellen Eigenschaften.
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1} \begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}%
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt $k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
es eine kanonische Isomorphie zwischen den direkten Summen es eine kanonische Isomorphie zwischen den direkten Summen