forked from kebekus/LineareAlgebra2
532 lines
22 KiB
TeX
532 lines
22 KiB
TeX
%
|
||
% Do not edit the following line. The text is automatically updated by
|
||
% subversion.
|
||
%
|
||
\svnid{$Id: 17-wedge.tex 72 2025-04-07 10:51:21Z kebekus $}
|
||
|
||
|
||
\chapter{Die äußere Algebra}
|
||
\label{sec:wedge}
|
||
\sideremark{Revision \svnfilerev\\\svnfileday.\svnfilemonth.\svnfileyear}
|
||
|
||
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
|
||
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf
|
||
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau
|
||
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der
|
||
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
|
||
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
|
||
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten?
|
||
|
||
|
||
\section{Definition, Existenz und Eindeutigkeit}
|
||
|
||
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau
|
||
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige
|
||
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche
|
||
Abbildungen beschränken, die alternierend sind.
|
||
|
||
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}
|
||
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei
|
||
$n ∈ ℕ$ eine Zahl. Eine multilineare Abbildung
|
||
\[
|
||
s : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → W
|
||
\]
|
||
heißt \emph{alternierend}\index{alternierende multilineare
|
||
Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung
|
||
\begin{equation}\label{eq:dfjgh}
|
||
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
|
||
\end{equation}
|
||
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
|
||
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt
|
||
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel
|
||
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei
|
||
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
|
||
\end{defn}
|
||
|
||
\begin{beobachtung}
|
||
In der Situation~\ref{def:17-1-1} seien zwei unterschiedliche Indizes $i$ und
|
||
$j$ gegeben und es sei $σ = (ij) ∈ S_n$ die Permutation, die diese beiden
|
||
Indizes vertauscht. Dann ist
|
||
\begin{equation}\label{eq:17-1-2-1}
|
||
s(\vec{v}_1, …, \vec{v}_n) = -s(\vec{v}_{σ(1)}, …, \vec{v}_{σ(n)}).
|
||
\end{equation}
|
||
Da ist jedes Element der Permutationsgruppe $S_n$ als Produkt von
|
||
Permutationen schreiben kann, gilt allgemeiner für alle $ρ ∈ S_n$ die
|
||
Gleichung
|
||
\[
|
||
s(\vec{v}_1, …, \vec{v}_n) = \sgn(ρ)·s(\vec{v}_{ρ(1)}, …,
|
||
\vec{v}_{ρ(n)}).
|
||
\]
|
||
\end{beobachtung}
|
||
|
||
\begin{prov}
|
||
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
|
||
``alternierende Multilineare Abbildung'' nehmen?
|
||
\end{prov}
|
||
|
||
\begin{notation}[Produkte]
|
||
In der Situation von Definition~\ref{def:17-1-1} schreibe kurz
|
||
\[
|
||
V^{⨯ n} := \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯}.
|
||
\]
|
||
\end{notation}
|
||
|
||
\begin{bsp}[Determinante]
|
||
Es sei $k$ ein Körper und es sei $n ∈ ℕ$ eine Zahl. Betrachte Matrizen als
|
||
Tupel von Spaltenvektoren und identifiziere so den Vektorraum
|
||
$\Mat(n⨯ n, k)$ der $(n⨯ n)$-Matrizen mit dem Vektorraum
|
||
$k^n⨯ ⋯ ⨯ k^n$. Dann ist die Determinantenabbildung
|
||
\[
|
||
\det : k^n⨯ ⋯ ⨯ k^n → k
|
||
\]
|
||
eine alternierende multilineare Abbildung.
|
||
\end{bsp}
|
||
|
||
\begin{bsp}[Kreuzprodukt]
|
||
Das von Physiker geliebte
|
||
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem
|
||
$ℝ³$} ist eine alternierende multilineare Abbildung.
|
||
\end{bsp}
|
||
|
||
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
|
||
Vektorräumen definieren.
|
||
|
||
\begin{defn}[Äußeres Produkt]\label{def:17-1-4}
|
||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder
|
||
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$
|
||
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, so
|
||
dass für alle multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare
|
||
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert
|
||
\[
|
||
\begin{tikzcd}[column sep=4cm]
|
||
V^{⨯ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
|
||
V^{⨯n} \ar[r, "s\text{, alternierend multilin.}"'] & W .
|
||
\end{tikzcd}
|
||
\]
|
||
\end{defn}
|
||
|
||
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
|
||
Existenz und Eindeutigkeit des äußeren Produktes.
|
||
|
||
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}
|
||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||
gegeben. Weiter seien $τ_1 : V^{⨯n} → T_1$ und $τ_1 : V^{⨯n} → T_2$ zwei
|
||
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus
|
||
$T_1 ≅ T_2$. \qed
|
||
\end{satz}
|
||
|
||
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}
|
||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
|
||
\end{satz}
|
||
|
||
\begin{notation}[Notation rund um äußere Produkte]
|
||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$
|
||
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
|
||
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben
|
||
\[
|
||
τ : V^{⨯n} → \bigwedge^n V.
|
||
\]
|
||
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben
|
||
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
|
||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von
|
||
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von
|
||
\emph{reinen Dächern}\index{reine Dächer}.
|
||
\end{notation}
|
||
|
||
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}
|
||
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber
|
||
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen
|
||
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß
|
||
Definition~\ref{def:17-1-1} die folgenden Regeln.
|
||
\begin{itemize}
|
||
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit
|
||
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$
|
||
gleich $\vec{0}_{Λ^n V}$.
|
||
|
||
\item Für jede Permutation $ρ ∈ S_n$ ist
|
||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯
|
||
Λ \vec{v}_{ρ(n)}$.
|
||
\end{itemize}
|
||
\end{beobachtung}
|
||
|
||
|
||
\section{Erzeugendensysteme und Basen}
|
||
|
||
\marginpar{Vorlesung 23}Genau wie beim Tensorprodukt sind wir sofort in der
|
||
Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
|
||
|
||
\begin{beobachtung}[Erzeugendensysteme von $Λ^n V$]
|
||
In der Situation von Definition~\ref{def:17-1-4} sei $E ⊂ V$ ein
|
||
Erzeugendensystem. Dann ist
|
||
\[
|
||
\{\vec{v}_1 Λ ⋯ Λ \vec{v}_n \:|\: \forall i:\vec{v}_i ∈ E \}
|
||
\]
|
||
ein Erzeugendensystem von $Λ^n V$. Insbesondere gilt: wenn $V$
|
||
endlich-dimensional ist, dann auch $Λ^n V$.
|
||
\end{beobachtung}
|
||
|
||
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
|
||
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa
|
||
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine
|
||
Basis von $(ℝ²)^{⊗ 2}$ durch die Menge
|
||
\[
|
||
\{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2
|
||
⊗ \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2}
|
||
\]
|
||
gegeben. Das ist bei Dachprodukten nicht ganz so einfach, denn entsprechend der
|
||
Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
|
||
\[
|
||
\{ %
|
||
\underbrace{\vec{e}_1 Λ \vec{e}_1}_{= \vec{0}}, \quad %
|
||
\vec{e}_1 Λ \vec{e}_2, \quad %
|
||
\underbrace{\vec{e}_2 Λ \vec{e}_1}_{= -\vec{e}_1 Λ \vec{e}_2},
|
||
\quad %
|
||
\underbrace{\vec{e}_2 Λ \vec{e}_2}_{= \vec{0}} \}
|
||
⊂ Λ² ℝ²
|
||
\]
|
||
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
|
||
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
|
||
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
|
||
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen
|
||
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …)
|
||
verzichte ich darauf.
|
||
|
||
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}
|
||
In der Situation von Definition~\ref{def:17-1-4} sei
|
||
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann
|
||
ist die Menge
|
||
\[
|
||
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
|
||
\]
|
||
eine Basis von $Λ^n V$. \qed
|
||
\end{satz}
|
||
|
||
\begin{bemerkung}
|
||
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen
|
||
sollte!
|
||
\end{bemerkung}
|
||
|
||
\begin{kor}
|
||
In der Situation von Definition~\ref{def:17-1-4} sei $n ≤ \dim V$ ist
|
||
\[
|
||
\dim Λ^n V = \# \{ (i_1, …, i_n) \:|\: i_1 < i_2 < ⋯ < i_n\},
|
||
\]
|
||
und das ist gleich dem Binomialkoeffizient $\dim V \choose n$. Für
|
||
$n > \dim V$ ist $Λ^n V$ der Nullvektorraum. \qed
|
||
\end{kor}
|
||
|
||
\begin{bemerkung}
|
||
Wenn $\dim V$ endlich ist, dann hat der Vektorraum $Λ^{\dim V} V$ die
|
||
Dimension ${\dim V \choose n} = 1$!
|
||
\end{bemerkung}
|
||
|
||
|
||
\section{Die äußere Algebra}
|
||
\label{sec:aAlg2}
|
||
|
||
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
|
||
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
|
||
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ^+$, definieren wir
|
||
wie folgt eine Abbildung
|
||
\[
|
||
\begin{matrix}
|
||
m_{ab} : & Λ^a V ⨯ Λ^b V & → & Λ^{a+b} V \\
|
||
& \bigl( (\vec{v}_1 Λ ⋯ Λ \vec{v}_a), (\vec{w}_1 Λ ⋯ Λ \vec{w}_b)\bigr) & ↦ & \vec{v}_1 Λ ⋯ Λ \vec{v}_a Λ \vec{w}_1 Λ ⋯ Λ \vec{w}_b
|
||
\end{matrix}
|
||
\]
|
||
Zusätzlich definieren wir noch die trivialen Randfälle
|
||
\[
|
||
\begin{matrix}
|
||
m_{0b} : & Λ⁰ V ⨯ Λ^b V & → & Λ^b V \\
|
||
& \bigl( λ, (\vec{w}_1 Λ ⋯ Λ \vec{w}_b)\bigr) & ↦ & λ·(\vec{w}_1 Λ ⋯ Λ \vec{w}_b)
|
||
\end{matrix}
|
||
\]
|
||
und
|
||
\[
|
||
\begin{matrix}
|
||
m_{a0} : & Λ^a V^{⊗ a} ⨯ Λ⁰ V & → & Λ^a V \\
|
||
& \bigl( (\vec{v}_1 Λ ⋯ Λ \vec{v}_a), λ\bigr) & ↦ & λ·(\vec{v}_1 Λ ⋯ Λ \vec{v}_a)
|
||
\end{matrix}
|
||
\]
|
||
und
|
||
\[
|
||
\begin{matrix}
|
||
m_{00} : & Λ⁰ V ⨯ Λ⁰ V & → & Λ⁰ V \\
|
||
& (λ,ν) & ↦ & λ·ν.
|
||
\end{matrix}
|
||
\]
|
||
Diese ``Definitionen'' verwenden die analog die schreckliche
|
||
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
|
||
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
|
||
|
||
\begin{konstruktion}[Äußere Algebra]
|
||
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Betrachte den
|
||
Vektorraum
|
||
\[
|
||
T := \bigoplus_{n ∈ ℕ} Λ^n V
|
||
\]
|
||
und die Abbildung
|
||
\[
|
||
m : T ⨯ T → T, \quad \bigl( (\vec{v}_a)_{a ∈ ℕ}, (\vec{w}_b)_{b ∈ ℕ} \bigr)
|
||
↦ \sum^{∞}_{c=0}\sum^c_{a=0} \sum^{c-a}_{b=0} m_{ab}(\vec{v}_a, \vec{w}_b).
|
||
\]
|
||
Erinnern Sie sich dazu noch einmal an die Definition der direkten Summe und
|
||
vergewissern Sie sich, dass die Summen alle endlich sind! Ich behaupte ohne
|
||
Beweis, dass dies eine assoziative Algebra mit Eins definiert. Diese wird in
|
||
der Literatur \emph{äußere Algebra}\index{äußere Algebra} genannt.
|
||
\end{konstruktion}
|
||
|
||
\begin{bemerkung}
|
||
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
|
||
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$
|
||
sobald $n>\dim V$ ist. Also ist
|
||
\[
|
||
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
|
||
2^{\dim V}.
|
||
\]
|
||
Kennen wir diese Zahl irgendwoher?
|
||
\end{bemerkung}
|
||
|
||
|
||
\section{Dachprodukte von Abbildungen}
|
||
|
||
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
|
||
eine Abbildung zwischen den Dachprodukten induziert.
|
||
|
||
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}
|
||
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
|
||
$n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau
|
||
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende
|
||
Diagramm kommutiert,
|
||
\[
|
||
\begin{tikzcd}[column sep=2cm]
|
||
V^{⨯ n} \ar[d, "τ"'] \ar[r, "f ⨯ ⋯ ⨯ f"] & V^{⨯ n} \ar[d, "τ"] \\
|
||
Λ^n V \ar[r, "η"'] & Λ^n V.
|
||
\end{tikzcd}
|
||
\]
|
||
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
|
||
\end{satz}
|
||
\begin{proof}
|
||
Hier ist fast nichts zu zeigen. Die Abbildung
|
||
$τ◦(f ⨯ ⋯ ⨯ f)$ ist alternierend und multilinear. Also
|
||
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft.
|
||
\end{proof}
|
||
|
||
\begin{bemerkung}
|
||
Für reine Dächer gilt die Gleichung
|
||
\[
|
||
(Λ^n f)(\vec{v}_1 Λ ⋯ Λ \vec{v}_n) = f(\vec{v}_1) Λ
|
||
⋯ Λ f(\vec{v}_n)
|
||
\]
|
||
\end{bemerkung}
|
||
|
||
Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
|
||
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
|
||
geht's.
|
||
|
||
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}
|
||
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
|
||
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren
|
||
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das
|
||
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt.
|
||
\begin{itemize}
|
||
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
|
||
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix
|
||
$A := (a_{ij}) ∈ \Mat(n⨯ k, k)$.
|
||
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
|
||
$A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$ die Matrix, die aus den Spalten
|
||
$i_1, …,i_k$ der Matrix $A$ besteht.
|
||
\end{itemize}
|
||
Dann ist
|
||
\[
|
||
\vec{v}_1 Λ ⋯ Λ \vec{v}_k = \sum_{1 ≤ i_1 < ⋯ < i_k
|
||
≤ n} (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ ⋯ Λ
|
||
\vec{e}_{i_k}.
|
||
\]
|
||
\end{satz}
|
||
\begin{proof}
|
||
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt
|
||
ausrechnen, was der Koeffizient von
|
||
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in
|
||
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
|
||
besseres ein, als das Produkt
|
||
\[
|
||
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
|
||
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
|
||
a_{2j}·\vec{e}_j \right) Λ ⋯ Λ \left( \sum_{j=1}^n
|
||
a_{kj}·\vec{e}_j\right)
|
||
\]
|
||
brutal auszumultiplizieren. Die relevanten Terme sind dann die folgenden:
|
||
\begin{align*}
|
||
\vec{v}_1 Λ ⋯ Λ \vec{v}_k & = \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n a_{2j}·\vec{e}_j \right) Λ ⋯ Λ \left( \sum_{j=1}^n a_{kj}·\vec{e}_j\right) \\
|
||
& = \sum_{σ ∈ S_k} \left( a_{1σ(i_1)}·\vec{e}_{σ(i_1)}\right) Λ \left( a_{2σ(i_2)}·\vec{e}_{σ(i_2)}\right) Λ ⋯ \left( a_{kσ(i_k)}·\vec{e}_{σ(i_k)}\right) \\
|
||
& \qquad\qquad + \left(\text{Rest, der zu $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ linear unabhängig ist} \right) \\
|
||
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
|
||
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
|
||
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
|
||
& = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest})
|
||
\end{align*}
|
||
Damit ist der Satz dann wohl bewiesen.
|
||
\end{proof}
|
||
|
||
\begin{kor}
|
||
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum.
|
||
Wenn jetzt Vektoren $\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann sind
|
||
die folgenden Aussagen äquivalent.
|
||
\begin{enumerate}
|
||
\item Die Menge $\{ \vec{v}_1, …, \vec{v}_k \}$ ist linear unabhängig.
|
||
|
||
\item Das äußere Produkt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ ist nicht Null. \qed
|
||
\end{enumerate}
|
||
\end{kor}
|
||
|
||
|
||
\section{Die konzeptionelle Interpretation der Determinante}
|
||
|
||
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
|
||
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
|
||
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist,
|
||
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist
|
||
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung
|
||
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage:
|
||
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese
|
||
Frage.
|
||
|
||
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
|
||
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
|
||
ist
|
||
\[
|
||
Λ^{\dim V} f = \text{skalare Multiplikation mit }\det f. \eqno \qed
|
||
\]
|
||
\end{kor}
|
||
|
||
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
|
||
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der
|
||
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
|
||
geometrische Aussage.
|
||
|
||
|
||
\subsection{Die Koeffizienten des charakteristischen Polynoms}
|
||
|
||
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
|
||
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer
|
||
Matrix $A ∈ \Mat(n⨯ n,k)$ diskutiert,
|
||
\[
|
||
χ_A(t) = \det\left(A-t·\Id \right) = (-1)^n·\left(t^n+a_1(A)·t^{n-1}+ ⋯ +
|
||
a_{n-1}(A)·t + a_n(A) \right).
|
||
\]
|
||
Wir hatten staunend festgestellt, dass die Funktionen
|
||
\[
|
||
a_i : \Mat(n⨯ n, k) → k
|
||
\]
|
||
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
|
||
$A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
|
||
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
|
||
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass
|
||
\[
|
||
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
|
||
\]
|
||
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
|
||
|
||
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]
|
||
Es sei $k$ ein Körper, es sei $n ∈ ℕ$, es sei $V$ ein $n$-dimensionaler
|
||
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
|
||
Polynom von $f$ als
|
||
\[
|
||
χ_f(t) = \det\left(f-t·\Id_V \right) = (-1)^n·\left(t^n+a_1·t^{n-1}+ ⋯ +
|
||
a_{n-1}·t + a_n \right).
|
||
\]
|
||
Dann gilt für jeden Index $i$ die Gleichung $a_i = (-1)^n·\spur (Λⁱf)$.
|
||
\end{satz}
|
||
\begin{proof}
|
||
Der Beweis besteht aus zwei Schritten. Im ersten Schritt berechnen wir brutal
|
||
die Koeffizienten des charakteristischen Polynoms. Im zweiten Schritt
|
||
berechnen wir brutal die Spur des Endomorphismus $Λⁱf$. In jedem Fall wählen
|
||
wir eine angeordnete Basis $\{\vec{e}_1, …, \vec{e}_n\}$ von $V$ und nutzen
|
||
diese Basis, um den Endomorphismus $f$ als Matrix $A = (a_{ij}) ∈ \Mat(n⨯ n)$
|
||
zu schreiben.
|
||
|
||
\bigskip
|
||
|
||
\noindent \textbf{Schritt 1:} um die Koeffizienten des charakteristischen
|
||
Polynoms auszurechnen, interessiere mich für die Matrix
|
||
\[
|
||
B = (b_{ij}) =
|
||
\begin{pmatrix}
|
||
a_{11}-t & a_{12} & \cdots & & a_{n1} \\
|
||
a_{21} & \ddots & \ddots & & \vdots \\
|
||
\vdots & \ddots \\
|
||
& & & & a_{(n-1)n}\\
|
||
a_{n1} & \cdots & & a_{n(n-1)} & a_{nn}-t
|
||
\end{pmatrix}
|
||
\]
|
||
Das charakteristische Polynom ist dann die Determinante von $B$, also
|
||
\begin{equation}\label{eq:xcydfg}
|
||
χ_f(t) = \det B = \sum_{σ ∈ S_n} \sgn(σ)·b_{1σ(1)}⋯ b_{nσ(n)}.
|
||
\end{equation}
|
||
Für gegebene Permutation $σ$ und gegebenen Index $i$ gilt jetzt
|
||
\[
|
||
b_{iσ(i)} =
|
||
\left\{
|
||
\begin{matrix}
|
||
a_{ii}-t & \text{falls }σ(i)=i \\
|
||
const & \text{sonst}
|
||
\end{matrix}
|
||
\right.
|
||
\]
|
||
Insgesamt sehe ich, dass ein Summand aus~\eqref{eq:xcydfg} genau dann zum
|
||
Koeffizienten $a_{n-k}$ von $t^k$ beiträgt, wenn die Permutation $σ$
|
||
mindestens $k$ unterschiedliche Indizes festhält. Also ist
|
||
\begin{align*}
|
||
a_{n-k} & = (-1)^{n-k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n} \sum_{\txt{\scriptsize $σ ∈ S_n$\\\scriptsize hält $i_1, …, i_k$ fest}} \sgn(σ)·a_{1σ(1)}⋯·a_{nσ(n)} \\
|
||
& = (-1)^{n-k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n} \det(\widetilde{A}_{i_1, …, i_k}),
|
||
\end{align*}
|
||
wobei $\widetilde{A}_{i_1, …, i_k} ∈ \Mat((n-k)⨯(n-k))$ die Matrix ist, die
|
||
entsteht, wenn ich aus $A$ die Zeilen und Spalten $i_1, …, i_k$ streiche.
|
||
Äquivalent kann ich schreiben
|
||
\begin{equation}\label{eq:A}
|
||
a_k = (-1)^{k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n}
|
||
\det(\widetilde{A}^{i_1, …, i_k})
|
||
\end{equation}
|
||
wobei $\widetilde{A}^{i_1, …, i_k} ∈ \Mat(k⨯ k)$ die Matrix ist, die entsteht,
|
||
wenn ich aus $A$ alle Zeilen und Spalten bis auf $i_1, …, i_k$ streiche.
|
||
|
||
\bigskip
|
||
|
||
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
|
||
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
|
||
wir noch einmal daran, dass die Dachprodukte
|
||
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von
|
||
$Λ^k V$ bilden. Gegeben also ein solches Basiselement
|
||
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3}
|
||
\begin{align*}
|
||
(Λ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
|
||
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k})·\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
|
||
& = \det(A_{i_1, …, i_k})·\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k} \\
|
||
& \qquad\qquad + (\text{Rest, Linearkombination der anderen Basisvektoren}),
|
||
\end{align*}
|
||
wobei ich für die Definition der Matrix $A_{i_1, …, i_k}$ noch einmal auf
|
||
Satz~\ref{satz:17-4-3} verweise. Insgesamt ergibt sich nach Definition der
|
||
Spur die Gleichung
|
||
\begin{equation}\label{eq:B}
|
||
\spur (Λ^k f) = \sum_{1≤ i_1 < ⋯ < i_k ≤ n} \det(A_{i_1, …, i_k})
|
||
\end{equation}
|
||
|
||
\bigskip
|
||
|
||
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
|
||
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
|
||
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix
|
||
$\widetilde{A}^{i_1, …, i_k}$ ist.
|
||
\end{proof}
|
||
|
||
|
||
|
||
%%% Local Variables:
|
||
%%% mode: latex
|
||
%%% TeX-master: "20LA2"
|
||
%%% End:
|
||
|