LineareAlgebra2/17-wedge.tex
Stefan Kebekus bd2fd06b37 Add proof
2025-04-24 10:59:46 +02:00

521 lines
22 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Die äußere Algebra}
\label{sec:wedge}
Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen
in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf
den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau
so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der
Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante
Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht
sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten?
\section{Definition, Existenz und Eindeutigkeit}
Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau
so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige
Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche
Abbildungen beschränken, die alternierend sind.
\begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1}
Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei
$n ∈ $ eine Zahl. Eine multilineare Abbildung
\[
s : \underbrace{V V}_{n } → W
\]
heißt \emph{alternierend}\index{alternierende multilineare
Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung
\begin{equation}\label{eq:dfjgh}
s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W
\end{equation}
für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein
Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt
alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel
$(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei
unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$.
\end{defn}
\begin{beobachtung}
In der Situation~\ref{def:17-1-1} seien zwei unterschiedliche Indizes $i$ und
$j$ gegeben und es sei $σ = (ij) ∈ S_n$ die Permutation, die diese beiden
Indizes vertauscht. Dann ist
\begin{equation}\label{eq:17-1-2-1}
s(\vec{v}_1, …, \vec{v}_n) = -s(\vec{v}_{σ(1)}, …, \vec{v}_{σ(n)}).
\end{equation}
Da ist jedes Element der Permutationsgruppe $S_n$ als Produkt von
Permutationen schreiben kann, gilt allgemeiner für alle $ρ ∈ S_n$ die
Gleichung
\[
s(\vec{v}_1, …, \vec{v}_n) = \sgn(ρ)·s(\vec{v}_{ρ(1)}, …,
\vec{v}_{ρ(n)}).
\]
\end{beobachtung}
\begin{prov}
Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von
``alternierende Multilineare Abbildung'' nehmen?
\end{prov}
\begin{notation}[Produkte]
In der Situation von Definition~\ref{def:17-1-1} schreibe kurz
\[
V^{ n} := \underbrace{V V}_{n }.
\]
\end{notation}
\begin{bsp}[Determinante]
Es sei $k$ ein Körper und es sei $n ∈ $ eine Zahl. Betrachte Matrizen als
Tupel von Spaltenvektoren und identifiziere so den Vektorraum
$\Mat(n n, k)$ der $(n n)$-Matrizen mit dem Vektorraum
$k^n k^n$. Dann ist die Determinantenabbildung
\[
\det : k^n k^n → k
\]
eine alternierende multilineare Abbildung.
\end{bsp}
\begin{bsp}[Kreuzprodukt]
Das von Physiker geliebte
\href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem
$ℝ³$} ist eine alternierende multilineare Abbildung.
\end{bsp}
Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von
Vektorräumen definieren.
\begin{defn}[Äußeres Produkt]\label{def:17-1-4}
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder
\emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$
zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{n} → T$, so
dass für alle multilinearen Abbildungen $s: V^{n} → W$ genau eine lineare
Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert
\[
\begin{tikzcd}[column sep=4cm]
V^{ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\
V^{n} \ar[r, "s\text{, alternierend multilin.}"'] & W .
\end{tikzcd}
\]
\end{defn}
Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man
Existenz und Eindeutigkeit des äußeren Produktes.
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6}
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Weiter seien $τ_1 : V^{n} → T_1$ und $τ_1 : V^{n} → T_2$ zwei
$n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus
$T_1 ≅ T_2$. \qed
\end{satz}
\begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9}
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed
\end{satz}
\begin{notation}[Notation rund um äußere Produkte]
Es sei $k$ ein Körper, es sei $n ∈ $ und es sei ein $k$-Vektorraum $V$
gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die
Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben
\[
τ : V^{n}\bigwedge^n V.
\]
Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben
die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von
$Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von
\emph{reinen Dächern}\index{reine Dächer}.
\end{notation}
\begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11}
Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber
jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen
Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß
Definition~\ref{def:17-1-1} die folgenden Regeln.
\begin{itemize}
\item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit
$\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$
gleich $\vec{0}_{Λ^n V}$.
\item Für jede Permutation $ρ ∈ S_n$ ist
$\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯
Λ \vec{v}_{ρ(n)}$.
\end{itemize}
\end{beobachtung}
\section{Erzeugendensysteme und Basen}
\marginpar{Vorlesung 23}Genau wie beim Tensorprodukt sind wir sofort in der
Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen.
\begin{beobachtung}[Erzeugendensysteme von $Λ^n V$]
In der Situation von Definition~\ref{def:17-1-4} sei $E ⊂ V$ ein
Erzeugendensystem. Dann ist
\[
\{\vec{v}_1 Λ ⋯ Λ \vec{v}_n \:|\: \forall i:\vec{v}_i ∈ E \}
\]
ein Erzeugendensystem von $Λ^n V$. Insbesondere gilt: wenn $V$
endlich-dimensional ist, dann auch $Λ^n V$.
\end{beobachtung}
Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz
schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa
$\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine
Basis von $(ℝ²)^{2}$ durch die Menge
\[
\{ \vec{e}_1\vec{e}_1, \quad \vec{e}_1\vec{e}_2, \quad \vec{e}_2
\vec{e}_1, \quad \vec{e}_2\vec{e}_2 \}(ℝ²)^{2}
\]
gegeben. Das ist bei Dachprodukten nicht ganz so einfach, denn entsprechend der
Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist
\[
\{ %
\underbrace{\vec{e}_1 Λ \vec{e}_1}_{= \vec{0}}, \quad %
\vec{e}_1 Λ \vec{e}_2, \quad %
\underbrace{\vec{e}_2 Λ \vec{e}_1}_{= -\vec{e}_1 Λ \vec{e}_2},
\quad %
\underbrace{\vec{e}_2 Λ \vec{e}_2}_{= \vec{0}} \}
⊂ Λ² ℝ²
\]
zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis
sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das
verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet.
In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen
Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …)
verzichte ich darauf.
\begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2}
In der Situation von Definition~\ref{def:17-1-4} sei
$E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann
ist die Menge
\[
\{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \}
\]
eine Basis von $Λ^n V$. \qed
\end{satz}
\begin{bemerkung}
In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen
sollte!
\end{bemerkung}
\begin{kor}
In der Situation von Definition~\ref{def:17-1-4} sei $n ≤ \dim V$ ist
\[
\dim Λ^n V = \# \{ (i_1, …, i_n) \:|\: i_1 < i_2 < ⋯ < i_n\},
\]
und das ist gleich dem Binomialkoeffizient $\dim V \choose n$. Für
$n > \dim V$ ist $Λ^n V$ der Nullvektorraum. \qed
\end{kor}
\begin{bemerkung}
Wenn $\dim V$ endlich ist, dann hat der Vektorraum $Λ^{\dim V} V$ die
Dimension ${\dim V \choose n} = 1$!
\end{bemerkung}
\section{Die äußere Algebra}
\label{sec:aAlg2}
Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2}
definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen
$k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir
wie folgt eine Abbildung
\[
\begin{matrix}
m_{ab} : & Λ^a V Λ^b V && Λ^{a+b} V \\
& \bigl( (\vec{v}_1 Λ ⋯ Λ \vec{v}_a), (\vec{w}_1 Λ ⋯ Λ \vec{w}_b)\bigr) && \vec{v}_1 Λ ⋯ Λ \vec{v}_a Λ \vec{w}_1 Λ ⋯ Λ \vec{w}_b
\end{matrix}
\]
Zusätzlich definieren wir noch die trivialen Randfälle
\[
\begin{matrix}
m_{0b} : & Λ⁰ V Λ^b V && Λ^b V \\
& \bigl( λ, (\vec{w}_1 Λ ⋯ Λ \vec{w}_b)\bigr) && λ·(\vec{w}_1 Λ ⋯ Λ \vec{w}_b)
\end{matrix}
\]
und
\[
\begin{matrix}
m_{a0} : & Λ^a V^{⊗ a} Λ⁰ V && Λ^a V \\
& \bigl( (\vec{v}_1 Λ ⋯ Λ \vec{v}_a), λ\bigr) && λ·(\vec{v}_1 Λ ⋯ Λ \vec{v}_a)
\end{matrix}
\]
und
\[
\begin{matrix}
m_{00} : & Λ⁰ V Λ⁰ V && Λ⁰ V \\
& (λ,ν) && λ·ν.
\end{matrix}
\]
Diese ``Definitionen'' verwenden die analog die schreckliche
Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung
wohldefiniert ist! Jetzt definieren wir die äußere Algebra.
\begin{konstruktion}[Äußere Algebra]
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Betrachte den
Vektorraum
\[
T := \bigoplus_{n ∈ } Λ^n V
\]
und die Abbildung
\[
m : T T → T, \quad \bigl( (\vec{v}_a)_{a ∈ }, (\vec{w}_b)_{b ∈ } \bigr)
\sum^{}_{c=0}\sum^c_{a=0} \sum^{c-a}_{b=0} m_{ab}(\vec{v}_a, \vec{w}_b).
\]
Erinnern Sie sich dazu noch einmal an die Definition der direkten Summe und
vergewissern Sie sich, dass die Summen alle endlich sind! Ich behaupte ohne
Beweis, dass dies eine assoziative Algebra mit Eins definiert. Diese wird in
der Literatur \emph{äußere Algebra}\index{äußere Algebra} genannt.
\end{konstruktion}
\begin{bemerkung}
Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz
dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$
sobald $n>\dim V$ ist. Also ist
\[
\dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=}
2^{\dim V}.
\]
Kennen wir diese Zahl irgendwoher?
\end{bemerkung}
\section{Dachprodukte von Abbildungen}
Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen
eine Abbildung zwischen den Dachprodukten induziert.
\begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva}
Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl
$n ∈ $ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau
einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende
Diagramm kommutiert,
\[
\begin{tikzcd}[column sep=2cm]
V^{ n} \ar[d, "τ"'] \ar[r, "f f"] & V^{ n} \ar[d, "τ"] \\
Λ^n V \ar[r, "η"'] & Λ^n V.
\end{tikzcd}
\]
Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet.
\end{satz}
\begin{proof}
Hier ist fast nichts zu zeigen. Die Abbildung
$τ◦(f f)$ ist alternierend und multilinear. Also
existiert die Abbildung $η$ entsprechend der universellen Eigenschaft.
\end{proof}
\begin{bemerkung}
Für reine Dächer gilt die Gleichung
\[
(Λ^n f)(\vec{v}_1 Λ ⋯ Λ \vec{v}_n) = f(\vec{v}_1) Λ
⋯ Λ f(\vec{v}_n)
\]
\end{bemerkung}
Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt,
warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf
geht's.
\begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3}
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum,
mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren
$\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das
Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt.
\begin{itemize}
\item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten,
$\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix
$A := (a_{ij})\Mat(n k, k)$.
\item Gegeben Indizes $i_1 < ⋯ < i_k$, sei
$A_{i_1, …,i_k}\Mat(k k, k)$ die Matrix, die aus den Spalten
$i_1, …,i_k$ der Matrix $A$ besteht.
\end{itemize}
Dann ist
\[
\vec{v}_1 Λ ⋯ Λ \vec{v}_k = \sum_{1 ≤ i_1 < ⋯ < i_k
≤ n} (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ ⋯ Λ
\vec{e}_{i_k}.
\]
\end{satz}
\begin{proof}
Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt
ausrechnen, was der Koeffizient von
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in
$\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts
besseres ein, als das Produkt
\[
\vec{v}_1 Λ ⋯ Λ \vec{v}_k %
= \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n
a_{2j}·\vec{e}_j \right) Λ ⋯ Λ \left( \sum_{j=1}^n
a_{kj}·\vec{e}_j\right)
\]
brutal auszumultiplizieren. Die relevanten Terme sind dann die folgenden:
\begin{align*}
\vec{v}_1 Λ ⋯ Λ \vec{v}_k & = \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n a_{2j}·\vec{e}_j \right) Λ ⋯ Λ \left( \sum_{j=1}^n a_{kj}·\vec{e}_j\right) \\
& = \sum_{σ ∈ S_k} \left( a_{1σ(i_1)}·\vec{e}_{σ(i_1)}\right) Λ \left( a_{2σ(i_2)}·\vec{e}_{σ(i_2)}\right) Λ ⋯ \left( a_{kσ(i_k)}·\vec{e}_{σ(i_k)}\right) \\
& \qquad\qquad + \left(\text{Rest, der zu $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ linear unabhängig ist} \right) \\
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\
& = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\
& = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\
& = (\det A_{i_1, …,i_k}\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest})
\end{align*}
Damit ist der Satz dann wohl bewiesen.
\end{proof}
\begin{kor}
Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum.
Wenn jetzt Vektoren $\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann sind
die folgenden Aussagen äquivalent.
\begin{enumerate}
\item Die Menge $\{ \vec{v}_1, …, \vec{v}_k \}$ ist linear unabhängig.
\item Das äußere Produkt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ ist nicht Null. \qed
\end{enumerate}
\end{kor}
\section{Die konzeptionelle Interpretation der Determinante}
Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich
für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von
Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist,
$n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist
eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung
ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage:
``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese
Frage.
\begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1}
In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann
ist
\[
Λ^{\dim V} f = \text{skalare Multiplikation mit }\det f. \eqno \qed
\]
\end{kor}
Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der
Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der
Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als
geometrische Aussage.
\subsection{Die Koeffizienten des charakteristischen Polynoms}
Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von
``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer
Matrix $A ∈ \Mat(n n,k)$ diskutiert,
\[
χ_A(t) = \det\left(A-\Id \right) = (-1)^\left(t^n+a_1(A)·t^{n-1}++
a_{n-1}(A)·t + a_n(A) \right).
\]
Wir hatten staunend festgestellt, dass die Funktionen
\[
a_i : \Mat(n n, k) → k
\]
auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle
$A ∈ \Mat(n n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und
haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals
konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass
\[
a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A)
\]
ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen!
\begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms]
Es sei $k$ ein Körper, es sei $n ∈ $, es sei $V$ ein $n$-dimensionaler
$k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische
Polynom von $f$ als
\[
χ_f(t) = \det\left(f-\Id_V \right) = (-1)^\left(t^n+a_1·t^{n-1}++
a_{n-1}·t + a_n \right).
\]
Dann gilt für jeden Index $i$ die Gleichung $a_i = (-1)^\spur (Λⁱf)$.
\end{satz}
\begin{proof}
Der Beweis besteht aus zwei Schritten. Im ersten Schritt berechnen wir brutal
die Koeffizienten des charakteristischen Polynoms. Im zweiten Schritt
berechnen wir brutal die Spur des Endomorphismus $Λⁱf$. In jedem Fall wählen
wir eine angeordnete Basis $\{\vec{e}_1, …, \vec{e}_n\}$ von $V$ und nutzen
diese Basis, um den Endomorphismus $f$ als Matrix $A = (a_{ij})\Mat(n n)$
zu schreiben.
\bigskip
\noindent \textbf{Schritt 1:} um die Koeffizienten des charakteristischen
Polynoms auszurechnen, interessiere mich für die Matrix
\[
B = (b_{ij}) =
\begin{pmatrix}
a_{11}-t & a_{12} && & a_{n1} \\
a_{21} & \ddots & \ddots & & \vdots \\
\vdots & \ddots \\
& & & & a_{(n-1)n}\\
a_{n1} && & a_{n(n-1)} & a_{nn}-t
\end{pmatrix}
\]
Das charakteristische Polynom ist dann die Determinante von $B$, also
\begin{equation}\label{eq:xcydfg}
χ_f(t) = \det B = \sum_{σ ∈ S_n} \sgn(σ)·b_{1σ(1)}⋯ b_{nσ(n)}.
\end{equation}
Für gegebene Permutation $σ$ und gegebenen Index $i$ gilt jetzt
\[
b_{iσ(i)} =
\left\{
\begin{matrix}
a_{ii}-t & \text{falls }σ(i)=i \\
const & \text{sonst}
\end{matrix}
\right.
\]
Insgesamt sehe ich, dass ein Summand aus~\eqref{eq:xcydfg} genau dann zum
Koeffizienten $a_{n-k}$ von $t^k$ beiträgt, wenn die Permutation $σ$
mindestens $k$ unterschiedliche Indizes festhält. Also ist
\begin{align*}
a_{n-k} & = (-1)^{n-k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n} \sum_{\txt{\scriptsize $σ ∈ S_n$\\\scriptsize hält $i_1, …, i_k$ fest}} \sgn(σ)·a_{1σ(1)}⋯·a_{nσ(n)} \\
& = (-1)^{n-k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n} \det(\widetilde{A}_{i_1, …, i_k}),
\end{align*}
wobei $\widetilde{A}_{i_1, …, i_k}\Mat((n-k)(n-k))$ die Matrix ist, die
entsteht, wenn ich aus $A$ die Zeilen und Spalten $i_1, …, i_k$ streiche.
Äquivalent kann ich schreiben
\begin{equation}\label{eq:A}
a_k = (-1)^{k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n}
\det(\widetilde{A}^{i_1, …, i_k})
\end{equation}
wobei $\widetilde{A}^{i_1, …, i_k}\Mat(k k)$ die Matrix ist, die entsteht,
wenn ich aus $A$ alle Zeilen und Spalten bis auf $i_1, …, i_k$ streiche.
\bigskip
\noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der
Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern
wir noch einmal daran, dass die Dachprodukte
$(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von
$Λ^k V$ bilden. Gegeben also ein solches Basiselement
$\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3}
\begin{align*}
^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\
& = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k}\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\
& = \det(A_{i_1, …, i_k}\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k} \\
& \qquad\qquad + (\text{Rest, Linearkombination der anderen Basisvektoren}),
\end{align*}
wobei ich für die Definition der Matrix $A_{i_1, …, i_k}$ noch einmal auf
Satz~\ref{satz:17-4-3} verweise. Insgesamt ergibt sich nach Definition der
Spur die Gleichung
\begin{equation}\label{eq:B}
\spur^k f) = \sum_{1≤ i_1 < ⋯ < i_k ≤ n} \det(A_{i_1, …, i_k})
\end{equation}
\bigskip
\noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche
\eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$
aus Satz~\ref{satz:17-4-3} genau gleich der Matrix
$\widetilde{A}^{i_1, …, i_k}$ ist.
\end{proof}
% !TEX root = LineareAlgebra2