Fix typos

This commit is contained in:
Stefan Kebekus 2025-06-30 08:28:39 +02:00
parent b8152c6101
commit e319086277
8 changed files with 78 additions and 70 deletions

View File

@ -90,3 +90,10 @@ Hurwitz-Kriteriums
Hurwitz-Kriterium
Determinantenabbildung
Eindeutigkeitsbeweis
Tensorproduktraum
Trivialbeispiel
Erzeugendensysteme
Kronecker-Produkt
Kronecker
Tensorprodukträume
Tensorproduktkonstruktion

View File

@ -60,3 +60,6 @@
{"rule":"DE_CASE","sentence":"^\\QEs sei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q ein Körper, es seien \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q zwei \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q-Vektorräume und es seien lineare Funktionale \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q und \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gegeben.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QDann existiert genau eine Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q das folgende Diagramm kommutiert: \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, kanon.\\E$"}
{"rule":"DE_AGREEMENT","sentence":"^\\QTrivialbeispiel: Es folgt direkt aus der Bilinearität von der Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, dass für jedes Skalar \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichheit \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt.\\E$"}
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QEntsprechend der universellen Eigenschaft erhalten wir also eine lineare Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q, sodass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q gilt \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q univ. Eigenschaft \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Definition von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q.\\E$"}
{"rule":"DE_CASE","sentence":"^\\QDann gilt für die darstellenden Matrizen die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q Keine Lust mehr.\\E$"}

View File

@ -21,7 +21,7 @@ Diagonalgestalt hat.
\begin{defn}[Diagonalisierbarer Endomorphismus]
In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine
Basis $B$ von $V$ gibt, sodass $\Mat^B_B$ eine Diagonalmatrix ist.
Basis $B$ von $V$ gibt, sodass $\Mat^B_B(f)$ eine Diagonalmatrix ist.
\end{defn}
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.

View File

@ -755,8 +755,8 @@ folgt vor.
\]
Um die Länge der Notation im Rahmen zu halten, schreibe $W_i := \Hau_f(λ_i)$.
\item Für jeden Index $i$ betrachte $g_i := (f - λ·\Id_V)|_{W_i}$ --- wir wissen
schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
\item Für jeden Index $i$ betrachte $g_i := (f - λ_i·\Id_V)|_{W_i}$ --- wir
wissen schon, dass dies ein nilpotenter Endomorphismus von $W_i$ ist.
\item Für jeden Index $i$ bestimme die zu $g_i$ gehörende Partition $P_i$ und
die duale Partition

View File

@ -197,7 +197,7 @@ Diese Beobachtungen legen folgende Definition nahe.
\end{bsp}
\begin{beobachtung}
Beobachtung~\ref{beob:4-0-6} zeigt: ähnliche Matrizen haben dasselbe
Beobachtung~\ref{beob:4-0-6} zeigt: Ähnliche Matrizen haben dasselbe
Minimalpolynom.
\end{beobachtung}

View File

@ -249,7 +249,7 @@ scheint.
Standardskalarprodukts.
\end{bsp}
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
Die folgende einfache Beobachtung ist für viele der folgenden Beweise zentral.
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}%
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $^n$

View File

@ -12,12 +12,12 @@ Die Begriffe und Methoden des laufenden Kapitels über „Euklidische und
Hermitesche Vektorräume“ haben enorm viele Anwendungen. Tatsächlich handelt es
sich bei vielen der heißen Themen zu „Machine Learning“, „Collective
Intelligence“ oder „Artificial Intelligence“ um relativ einfache Methoden der
linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können --
schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine
unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen
und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass Mathematik nicht
notwendig kompliziert sein muss, um Nützlich zu sein. Ich reiße in diesem
Kapitel einige Anwendungen oberflächlich an
linearen Algebra, die wir bei unserem Stand der Debatte sehr gut verstehen
können -- schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es
eine unendliche Menge von hervorragenden Tutorials, Erklärvideos,
Projektvorschlägen und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass
Mathematik nicht notwendig kompliziert sein muss, um Nützlich zu sein. Ich
reiße in diesem Kapitel einige Anwendungen oberflächlich an
Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer
Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig
@ -445,9 +445,8 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
\begin{itemize}
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
im Schwerefeld bewegen. Wir kennen die Wurfparabel, die elliptischen
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von Satelliten
beim Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken
auf?
Umlaufbahnen von Planeten um die Sonne und Hyperbelbahnen von Raumsonden beim
Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken auf?
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
@ -618,8 +617,8 @@ wird dann die Formel
f(x) = \frac{1}{\sqrt{}}·\int_{-∞}^{} F(t)·e^{-itx}dt.
\]
Die Funktion $F$ nennt man „Fourier-Transformierte“ oder „Spektrum“. Spektren
gibt es in der reellen Welt überall zum Beispiel in unserem Ohr. Das Ohr ist
ein „Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der
spielen in der reellen Welt überall eine Rolle. Das Ohr ist ein
„Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der
eingehenden Schallwelle berechnet und zum Gehirn weiterleitet. Wenn man Akustik
verstehen will, muss man Fourier-Transformation verstehen. Dann kann man
super-interessante Sachen machen.

View File

@ -15,12 +15,12 @@ mal wieder durch eine universelle Eigenschaft definiert, macht diese Bemerkung
präzise.
\begin{defn}[Tensorprodukt]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Ein
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Ein
\emph{Tensorprodukt}\index{Tensorprodukt!von Vektorräumen} von $U$ und $V$ ist
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: UV → T$, so
dass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: UV → W$
gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende Diagramm
kommutiert:
ein $k$-Vektorraum $T$ zusammen mit einer bilineare Abbildung $τ: U V → T$,
sodass folgende Eigenschaft gilt: für alle bilinearen Abbildungen $s: U V →
W$ gibt es genau eine lineare Abbildung $η: T → W$, so dass das folgende
Diagramm kommutiert:
\[
\begin{tikzcd}[column sep=2cm]
UV \ar[r, "τ\text{, bilinear}"] \ar[d, equal] & T \ar[d, "∃!η\text{, linear}"]\\
@ -33,7 +33,7 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
überhaupt existieren, eindeutig sind bis auf kanonische Isomorphie.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-2}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Weiter
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Weiter
seien $τ_1 : U V → T_1$ und $τ_1 : U V → T_2$ zwei Tensorprodukte. Dann
gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$.
\end{satz}
@ -44,33 +44,33 @@ Wie immer folgt aus der universellen Eigenschaft, dass Tensorprodukte, falls sie
Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
\begin{satz}[Eindeutigkeit des Tensorproduktes]\label{satz:15-1-3}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Dann
existiert ein Tensorprodukt.
\end{satz}
\begin{proof}
\video{21-2}
\end{proof}
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Wegen
\begin{notation}[Tensorproduktraum]\label{not:15-1-3}%
Es sei $k$ ein Körper und $U$ und $V$ zwei $k$-Vektorräume. Wegen
Satz~\ref{satz:15-1-2} und Satz~\ref{satz:15-1-3} werde ich (unter leichtem
Missbrauch der Sprache) von \emph{dem Tensorprodukt} sprechen und jede
Tensorproduktraum mit $U⊗V$ bezeichnen. Die Elemente von $U⊗V$ heißen in der
Literatur oft \emph{Tensoren}\index{Tensor}.
\end{notation}
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}
\begin{notation}[Produkt von Vektoren]\label{not:15-1-4a}%
In der Situation von Notation~\ref{not:15-1-3} seien Vektoren $\vec{u} ∈ U$
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor
$τ\bigl( (\vec{u}, \vec{v}) \bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der
Vektoren $\vec{u}$ und $\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt
und mit $\vec{u}\vec{v}$ bezeichnet.
und $\vec{v} ∈ V$ gegeben. Dann wird der Tensor $τ\bigl( (\vec{u}, \vec{v})
\bigr) ∈ U⊗V$ auch \emph{Tensorprodukt der Vektoren $\vec{u}$ und
$\vec{v}$}\index{Tensorprodukt!von Vektoren} genannt und mit $\vec{u}\vec{v}$
bezeichnet.
\end{notation}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis
$\{ \vec{e}_1, \vec{e}_2 \}$ und beweisen Sie direkt mit Hilfe der Definition,
dass die Tensoren
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]%
Betrachten Sie den Vektorraum $ℝ²$ mit der Standardbasis $\{ \vec{e}_1,
\vec{e}_2 \}$ und beweisen Sie direkt mithilfe der Definition, dass die
Tensoren
\[
\vec{e}_1⊗\vec{e}_1,\quad \vec{e}_1⊗\vec{e}_2,\quad \vec{e}_2⊗\vec{e}_1,
\quad\text{und}\quad \vec{e}_2⊗\vec{e}_2
@ -83,15 +83,15 @@ Für die Existenz von Tensorprodukten müssen wir relativ hart arbeiten.
Im Moment haben wir wahrscheinlich noch keine Vorstellung vom Tensorproduktraum
$T$; wir wissen noch nicht einmal, wie viele Elemente der Tensorproduktraum
überhaupt hat. Die einzigen Element, die wir direkt sehen, sind die Elemente
der Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal
überhaupt hat. Die einzigen Elemente, die wir direkt sehen, sind Elemente der
Form $\vec{u}\vec{v}$ --- von denen wir aber im Moment noch nicht einmal
wissen, ob sie Null sind oder nicht.
\begin{notation}[Reine Tensor]\label{not:15-1-4b}
\begin{notation}[Reine Tensor]\label{not:15-1-4b}%
In der Situation von Notation~\ref{not:15-1-3} sei ein Tensor $\vec{τ} ∈ U⊗V$
gegeben. Man nennt $\vec{τ}$ einen \emph{reinen
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren
$\vec{u} ∈ U$ und $\vec{v} ∈ V$ gibt, so dass $\vec{τ} = \vec{u}\vec{v}$ ist.
Tensor}\index{Tensor!reiner}\index{reiner Tensor}, wenn es Vektoren $\vec{u}
U$ und $\vec{v} ∈ V$ gibt, sodass $\vec{τ} = \vec{u}\vec{v}$ ist.
\end{notation}
\begin{bemerkung}[Darstellung von reinen Tensoren ist nicht eindeutig]
@ -116,12 +116,11 @@ wissen, ob sie Null sind oder nicht.
\end{bemerkung}
\begin{aufgabe}[Machen Sie sich mit Tensorprodukten vertraut!]
Beweisen Sie, dass der Tensor
$\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ² ⊗ ℝ²$ \emph{kein} reiner
Tensor ist! Finden Sie unterschiedliche Vektoren $\vec{v}_1$,
$\vec{v}_2 ∈ ℝ²$, so dass die Gleichheit
$\vec{v}_1\vec{v}_2 = \vec{v}_2\vec{v}_1$ gilt! Finden Sie Vektoren, so
dass die Gleichheit nicht gilt!
Beweisen Sie, dass der Tensor $\vec{e}_1\vec{e}_1 + \vec{e}_2\vec{e}_2 ∈ ℝ²
⊗ ℝ²$ \emph{kein} reiner Tensor ist! Finden Sie unterschiedliche Vektoren
$\vec{v}_1$, $\vec{v}_2 ∈ ℝ²$, sodass die Gleichheit $\vec{v}_1\vec{v}_2 =
\vec{v}_2⊗\vec{v}_1$ gilt! Finden Sie Vektoren, sodass die Gleichheit nicht
gilt!
\end{aufgabe}
In Tensorprodukten sind im Allgemeinen nicht alle Tensoren rein. Es gilt aber
@ -130,7 +129,7 @@ Das ist beruhigend, denn das bedeutet zumindest, dass wir alle Tensoren
hinschreiben können.
\begin{satz}[Reine Tensoren erzeugen des Tensorprodukt]\label{satz:15-2-5}
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei $k$-Vektorräume. Dann
Es sei $k$ ein Körper $U$ und $V$ zwei $k$-Vektorräume. Dann
ist die Menge der reinen Tensoren,
\[
R := \{ \vec{u}\vec{v} ∈ U⊗ V \:|\: \vec{u} ∈ U \text{ und } \vec{v}
@ -167,9 +166,9 @@ hinschreiben können.
Ψ: U⊗V → X, \quad \vec{u}\vec{v} ↦ (\text{Formel mit } \vec{u} \text{ und } \vec{v}).
\]
Es wird also nur gesagt, was die Bilder der reinen Tensoren sein sollen!
Gemeint ist mit dieser ``Definition'' folgendes: gegeben einen Tensor
$\vec{τ} ∈ U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination
von reinen Tensoren,
Gemeint ist mit dieser „Definition“ folgendes: gegeben einen Tensor $\vec{τ}
U⊗V$, schreibe $\vec{τ}$ auf irgendeine Weise als Linearkombination von reinen
Tensoren,
\[
\vec{τ} = \sum a_\vec{v}_i⊗\vec{w}_i
\]
@ -178,11 +177,11 @@ hinschreiben können.
Ψ(\vec{τ}) := \sum a_i· Ψ(\vec{v}_i⊗\vec{w}_i).
\]
Das kann man das als Definition einer linearen Abbildung $Ψ$ akzeptieren, wenn
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: der so
``definierte'' Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
man sich zuerst von der \emph{Wohldefiniert} überzeugt hat: Der so
„definierte“ Wert von $Ψ(\vec{τ})$ darf nicht von der Wahl der
Linearkombination abhängen! Wie sie sich vorstellen können, wird dieser Punkt
in der Literatur eigentlich immer übergangen. Schreckliche Fehler sind die
folge.
Folge.
\end{notation}
@ -193,7 +192,7 @@ Tensoren zu schreiben. Das ist aber nicht das letzte Wort. Die nächsten beide
Korollar zeigen, wie man Erzeugendensysteme und sogar Basen für den
Tensorproduktraum erhält.
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}
\begin{kor}[Erzeugendensystem für Tensorprodukt]\label{kor:15-2-6}%
In der Situation von Satz~\ref{satz:15-2-5} seien $(\vec{u}_i)_{i ∈ I} ⊂ U$
und $(\vec{v}_j)_{j ∈ J} ⊂ V$ jeweils Erzeugendensysteme. Dann ist die
folgende Menge von reinen Tensoren,
@ -217,7 +216,7 @@ Tensorproduktraum erhält.
\vec{u}\vec{v} &= \left(\sum_{i ∈ I} a_\vec{u}_i \right)⊗\vec{v} && \text{Einsetzen}\\
&= \sum_{i ∈ I} a_\big( \vec{u}_i⊗\vec{v} \big) && \text{Linearität von $τ$ in 1.~Komponente}\\
&= \sum_{i ∈ I} a_\Big( \vec{u}_i⊗\Big( \sum_{j ∈ J} b_\vec{v}_j \Big) \Big) && \text{Einsetzen}\\
&= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big). && \text{Linearität von $τ$ in 2.~Komponente}
&= \sum_{(i,j) ∈ I J} a_ib_\big(\vec{u}_i⊗\vec{b}_j \big) && \text{Linearität von $τ$ in 2.~Komponente}.
\end{align*}
Das beweist die Behauptung.
\end{proof}
@ -254,13 +253,13 @@ Tensorproduktraum erhält.
0_k &= η_{ij}\bigl(\vec{0}_{U⊗V}\bigr) \\
&= η_{ij} \left( \sum_{(α,β) ∈ I J} a_{αβ}· \vec{u}_α⊗\vec{v}_β \right) && \text{Relation \eqref{eq:fgh} eingesetzt}\\
&= \sum_{(α,β) ∈ I J} a_{αβ}·η_{ij}\big( \vec{u}_α⊗\vec{v}_β \big) && \text{Linearität von }η_{ij}\\
&= a_{ij}
&= a_{ij}.
\end{align*}
Damit ist die Relation \eqref{eq:fgh} offenbar trivial.
\end{proof}
\begin{kor}[Dimensionsformel für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume. Dann ist $\dim (U⊗V) = (\dim U)·(\dim V)$. \qed
\end{kor}
@ -269,7 +268,7 @@ eine Basis für den Tensorproduktraum macht. Das geht auch mit angeordneten
Basen.
\begin{konstruktion}[Lexikografisch angeordnete Basen für Tensorprodukte]
Es sei $k$ ein Körper und des seien $U$ und $V$ zwei endlich-dimensionale
Es sei $k$ ein Körper und $U$ und $V$ zwei endlich-dimensionale
$k$-Vektorräume, mit Basen $\vec{u}_1, …, \vec{u}_n$ von $U$ und
$\vec{v}_1, …, \vec{v}_m$ von $V$. Dann können wir die zugehörende Basis für
das Tensorprodukt $U⊗ V$ wie folgt anordnen:
@ -279,7 +278,7 @@ Basen.
…,
\underbrace{\vec{u}_n⊗ \vec{v}_1, …, \vec{u}_n⊗ \vec{v}_m}_{\text{beginnt mit }\vec{u}_n}.
\]
Diese Anordnung heiße \emph{lexikographische Anordnung}\index{lexikographische
Diese Anordnung heiße \emph{lexikografische Anordnung}\index{lexikografische
Anordnung}, weil das Verfahren daran erinnert, wie die Einträge in einem
Lexikon oder einem Telefonbuch\footnote{Eine historische Erläuterung des
Wortes finden Sie \href{https://de.wikipedia.org/wiki/Telefonbuch}{hier}.
@ -294,7 +293,7 @@ Abbildungen zwischen Vektorräumen auch Abbildungen zwischen den Tensorprodukten
induzieren. Der folgende Satz macht diese Aussage präzise.
\begin{satz}[Tensorprodukte von Abbildungen]\label{satz:15-4-1}
Es sei $k$ ein Körper, und es seien $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
Es sei $k$ ein Körper und $f_1: U_1 → V_1$ und $f_2: U_2 → V_2$
lineare Abbildungen von $k$-Vektorräumen. Dann gibt es genau eine lineare
Abbildung
\[
@ -329,7 +328,7 @@ Das Tensorprodukt von Abbildungen lässt sich natürlich auch auf dem Niveau von
Matrizen diskutieren.
\begin{konstruktion}
Es sei $k$ ein Körper, und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
Es sei $k$ ein Körper und es seien Zahlen $a_1$, $a_2$, $b_1$ und $b_2$ sowie
Matrizen
\[
A_1 ∈ \Mat(a_1 b_1, k) \quad\text{und}\quad A_2 ∈ \Mat(a_2 b_2, k)
@ -338,10 +337,10 @@ Matrizen diskutieren.
\[
\varphi_{A_1} : k^{b_1} → k^{a_1},\quad %
\varphi_{A_2} : k^{b_2} → k^{a_2} \quad\text{und}\quad %
\varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}
\varphi_{A_1}\varphi_{A_1} : k^{b_1}⊗ k^{b_1} → k^{a_1}⊗ k^{a_2}.
\]
Wir statten die Räume $k^{a_1}$, $k^{a_2}$, $k^{b_1}$ und $k^{b_2}$ jeweils
mit den kanonischen Standardbasen aus, wählen die lexikographisch angeordneten
mit den kanonischen Standardbasen aus, wählen die lexikografisch angeordneten
Produktbasen auf $k^{a_1}⊗ k^{a_2}$ und $k^{b_1}⊗ k^{b_2}$ und betrachten die
zugehörende darstellende Matrix von $\varphi_{A_1}\varphi_{A_1}$ bezüglich
dieser Produktbasen. Diese Matrix wird häufig als
@ -357,7 +356,7 @@ Matrizen diskutieren.
Das Kronecker-Produkt ist also eine unangenehme Abbildung
\[
•⊗• : \Mat(a_1 b_1, k)\Mat(a_2 b_2,
k) → \Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr)
k) → \Mat\bigl((a_1·a_2) (b_1·b_2), k\bigr).
\]
Auf \href{https://de.wikipedia.org/wiki/Kronecker-Produkt}{Wikipedia} ist
erklärt, wie man das Kronecker Produkt ausrechnet; dort sind auch einige
@ -368,7 +367,7 @@ Matrizen diskutieren.
In der Situation von Satz~\ref{satz:15-4-1} seien angeordnete Basen
$\mathcal{B}_{U, •}$ von $U_{}$ und $\mathcal{B}_{V, •}$ von $V_{}$ gegeben.
Weiter seien $\mathcal{B}_{U, 1 2}$ und $\mathcal{B}_{V, 1 2}$ die
lexikographisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann
lexikografisch angeordneten Produktbasen von $U_1U_2$ und $V_1V_2$. Dann
gilt für die darstellenden Matrizen die Gleichung
\[
\Mat^{\mathcal{B}_{U,1 2}}_{\mathcal{B}_{V,1 2}}(f_1⊗ f_2) =
@ -386,7 +385,7 @@ Ich nenne noch einige Eigenschaften der Tensorproduktkonstruktion. Den Beweis
des nächsten Satzes lasse ich weg; natürlich ist der Satz wieder einmal eine
Folge der universellen Eigenschaften.
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}
\begin{satz}[Tensorprodukt und direkte Summe]\label{satz:15-5-1}%
Es sei $k$ ein Körper und $(U_i)_{i ∈ I}$ sei eine Familie von
$k$-Vektorräumen, zusätzlich sei $V$ ein weiterer $k$-Vektorraum. Dann gibt
es eine kanonische Isomorphie zwischen den direkten Summen