% spell checker language \selectlanguage{german} \chapter{Die äußere Algebra} \label{sec:wedge} Es gibt noch eine Variante der Tensoralgebra, die unter anderem für Berechnungen in der Differentialgeometrie schrecklich wichtig ist: die äußere Algebra. Auf den ersten Blick sieht der laufende Abschnitt~\ref{sec:wedge} vielleicht genau so langweilig aus wie der vorhergehende Abschnitt~\ref{sec:tAlg}, aber der Schein trügt. Tatsächlich verbirgt die äußere Algebra sehr viel interessante Mathematik, die ich aber hier nur ganz am Rande streifen kann. Vielleicht sollte ich noch eine Vorlesung ``Lineare Algebra III'' anbieten? \section{Definition, Existenz und Eindeutigkeit} Die äußere Algebra und das äußere Produkt (auch ``Dachprodukt'') ist fast genau so definiert, wie die Tensoralgebra und das Tensorprodukt. Der einzige Unterschied ist, dass wir uns bei den multilinearen Abbildungen auf solche Abbildungen beschränken, die alternierend sind. \begin{defn}[Alternierende multilineare Abbildung]\label{def:17-1-1} Es sei $k$ ein Körper, es seien $V$ und $W$ zwei $k$-Vektorräume und es sei $n ∈ ℕ$ eine Zahl. Eine multilineare Abbildung \[ s : \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯} → W \] heißt \emph{alternierend}\index{alternierende multilineare Abbildung}\index{multilineare Abbildung!alternierend} falls die Gleichung \begin{equation}\label{eq:dfjgh} s(\vec{v}_1, …, \vec{v}_n) = \vec{0}_W \end{equation} für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, in dem ein Vektor zwei mal auftritt. Formell: die multilineare Abbildung $s$ heißt alternierend falls die Gleichung~\eqref{eq:dfjgh} für für jedes Tupel $(\vec{v}_1, …, \vec{v}_n)$ von Vektoren gilt, für das es zwei unterschiedliche Indizes $i \ne j$ gibt mit $\vec{v}_i = \vec{v}_j$. \end{defn} \begin{beobachtung} In der Situation~\ref{def:17-1-1} seien zwei unterschiedliche Indizes $i$ und $j$ gegeben und es sei $σ = (ij) ∈ S_n$ die Permutation, die diese beiden Indizes vertauscht. Dann ist \begin{equation}\label{eq:17-1-2-1} s(\vec{v}_1, …, \vec{v}_n) = -s(\vec{v}_{σ(1)}, …, \vec{v}_{σ(n)}). \end{equation} Da ist jedes Element der Permutationsgruppe $S_n$ als Produkt von Permutationen schreiben kann, gilt allgemeiner für alle $ρ ∈ S_n$ die Gleichung \[ s(\vec{v}_1, …, \vec{v}_n) = \sgn(ρ)·s(\vec{v}_{ρ(1)}, …, \vec{v}_{ρ(n)}). \] \end{beobachtung} \begin{prov} Könnte ich Gleichung~\eqref{eq:17-1-2-1} nicht als Definition von ``alternierende Multilineare Abbildung'' nehmen? \end{prov} \begin{notation}[Produkte] In der Situation von Definition~\ref{def:17-1-1} schreibe kurz \[ V^{⨯ n} := \underbrace{V ⨯ ⋯ ⨯ V}_{n ⨯}. \] \end{notation} \begin{bsp}[Determinante] Es sei $k$ ein Körper und es sei $n ∈ ℕ$ eine Zahl. Betrachte Matrizen als Tupel von Spaltenvektoren und identifiziere so den Vektorraum $\Mat(n⨯ n, k)$ der $(n⨯ n)$-Matrizen mit dem Vektorraum $k^n⨯ ⋯ ⨯ k^n$. Dann ist die Determinantenabbildung \[ \det : k^n⨯ ⋯ ⨯ k^n → k \] eine alternierende multilineare Abbildung. \end{bsp} \begin{bsp}[Kreuzprodukt] Das von Physiker geliebte \href{https://de.wikipedia.org/wiki/Kreuzprodukt}{Kreuzprodukt auf dem $ℝ³$} ist eine alternierende multilineare Abbildung. \end{bsp} Mit diesem Begriff können wir jetzt ganz allgemein äußere Produkte von Vektorräumen definieren. \begin{defn}[Äußeres Produkt]\label{def:17-1-4} Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Ein \emph{$n$.tes äußeres Produkt}\index{äußeres Produkt} oder \emph{$n$.tes Dachprodukt}\index{Dachprodukt} von $V$ ist ein Vektorraum $T$ zusammen mit einer alternierenden multilinearen Abbildung $τ: V^{⨯n} → T$, so dass für alle multilinearen Abbildungen $s: V^{⨯n} → W$ genau eine lineare Abbildung $η: T → W$ existiert, so dass das folgende Diagramm kommutiert \[ \begin{tikzcd}[column sep=4cm] V^{⨯ n} \ar[r, "τ\text{, alternierend multilin.}"] \ar[d, equal] & T \ar[d, "∃! η\text{, linear}"]\\ V^{⨯n} \ar[r, "s\text{, alternierend multilin.}"'] & W . \end{tikzcd} \] \end{defn} Genau wie in den Sätzen \ref{satz:15-1-2} und \ref{satz:15-1-3} beweist man Existenz und Eindeutigkeit des äußeren Produktes. \begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-6} Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Weiter seien $τ_1 : V^{⨯n} → T_1$ und $τ_1 : V^{⨯n} → T_2$ zwei $n$.te äußere Produkte. Dann gibt es einen kanonischen Isomorphismus $T_1 ≅ T_2$. \qed \end{satz} \begin{satz}[Eindeutigkeit des äußeren Produkts]\label{satz:17-1-9} Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Dann existiert ein $n$.tes äußeres Produkt. \qed \end{satz} \begin{notation}[Notation rund um äußere Produkte] Es sei $k$ ein Körper, es sei $n ∈ ℕ$ und es sei ein $k$-Vektorraum $V$ gegeben. Wie bei Tensorprodukten mit zwei Faktoren missbrauchen wir die Sprache, sprechen von ``dem $n$.ten äußeren Produkt'' und schreiben \[ τ : V^{⨯n} → \bigwedge^n V. \] Für den Fall $n=0$ definieren wir zusätzlich: $Λ⁰ V := k$. Wir schreiben die Bilder $τ(\vec{v}_1, …, \vec{v}_n)$ als $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ und bezeichnen diese Elemente von $Λ^n V$ als \emph{rein}. Etwas umgangssprachlich spricht man von \emph{reinen Dächern}\index{reine Dächer}. \end{notation} \begin{beobachtung}[Reine Dächer und Rechenregeln für reine Dächer]\label{beo:17-1-11} Wieder gilt: nicht jedes Element von $Λ^n V$ ist ein reines Dach, aber jedes Element ist eine Summe von reinen Dächern. Für das Rechnen mit reinen Dächern $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gelten gemäß Definition~\ref{def:17-1-1} die folgenden Regeln. \begin{itemize} \item Falls es zwei unterschiedliche Indizes $i$ und $j$ gibt mit $\vec{v}_i = \vec{v}_j$, dann ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n$ gleich $\vec{0}_{Λ^n V}$. \item Für jede Permutation $ρ ∈ S_n$ ist $\vec{v}_1 Λ ⋯ Λ \vec{v}_n = \sgn(ρ)·\vec{v}_{ρ(1)} Λ ⋯ Λ \vec{v}_{ρ(n)}$. \end{itemize} \end{beobachtung} \section{Erzeugendensysteme und Basen} \marginpar{Vorlesung 23}Genau wie beim Tensorprodukt sind wir sofort in der Lage, aus Erzeugendensystemen von $V$ Erzeugendensysteme von $Λ^n V$ zu machen. \begin{beobachtung}[Erzeugendensysteme von $Λ^n V$] In der Situation von Definition~\ref{def:17-1-4} sei $E ⊂ V$ ein Erzeugendensystem. Dann ist \[ \{\vec{v}_1 Λ ⋯ Λ \vec{v}_n \:|\: \forall i:\vec{v}_i ∈ E \} \] ein Erzeugendensystem von $Λ^n V$. Insbesondere gilt: wenn $V$ endlich-dimensional ist, dann auch $Λ^n V$. \end{beobachtung} Im Fall von Tensorprodukten konnten wir aus einer Basis von $V$ auch ganz schnell eine Basis von $V^{⊗ n}$ machen: wenn etwa $\{ \vec{e}_1, \vec{e}_2\} ⊂ ℝ²$ die Einheitsbasis ist, dann ist eine Basis von $(ℝ²)^{⊗ 2}$ durch die Menge \[ \{ \vec{e}_1 ⊗ \vec{e}_1, \quad \vec{e}_1 ⊗ \vec{e}_2, \quad \vec{e}_2 ⊗ \vec{e}_1, \quad \vec{e}_2 ⊗ \vec{e}_2 \} ⊂ (ℝ²)^{⊗ 2} \] gegeben. Das ist bei Dachprodukten nicht ganz so einfach, denn entsprechend der Rechenregeln aus Beobachtung~\ref{beo:17-1-11} ist \[ \{ % \underbrace{\vec{e}_1 Λ \vec{e}_1}_{= \vec{0}}, \quad % \vec{e}_1 Λ \vec{e}_2, \quad % \underbrace{\vec{e}_2 Λ \vec{e}_1}_{= -\vec{e}_1 Λ \vec{e}_2}, \quad % \underbrace{\vec{e}_2 Λ \vec{e}_2}_{= \vec{0}} \} ⊂ Λ² ℝ² \] zwar ein Erzeugendensystem, aber kein bisschen linear unabhängig. Eine Basis sieht aber anders aus! Immerhin: der folgende Satz besagt, dass das verbleibende eine Element $\vec{e}_1 Λ \vec{e}_2$ tatsächlich eine Basis bildet. In ``normalen'' Jahren würde ich an dieser Stelle einen sehr ausführlichen Beweis geben. In unserer speziellen Situation (Corona, Ende des Semesters, …) verzichte ich darauf. \begin{satz}[Basen von $Λ^n V$]\label{satz:17-2-2} In der Situation von Definition~\ref{def:17-1-4} sei $E = \{ \vec{v}_1, …, \vec{v}_n \} ⊂ V$ eine angeordnete Basis von $V$. Dann ist die Menge \[ \{ \vec{v}_{i_1} Λ ⋯ Λ \vec{v}_{i_n} \:|\: i_1 < i_2 < ⋯ < i_n \} \] eine Basis von $Λ^n V$. \qed \end{satz} \begin{bemerkung} In Satz~\ref{satz:17-2-2} ist klar, dass man die Basis lexikographisch anordnen sollte! \end{bemerkung} \begin{kor} In der Situation von Definition~\ref{def:17-1-4} sei $n ≤ \dim V$ ist \[ \dim Λ^n V = \# \{ (i_1, …, i_n) \:|\: i_1 < i_2 < ⋯ < i_n\}, \] und das ist gleich dem Binomialkoeffizient $\dim V \choose n$. Für $n > \dim V$ ist $Λ^n V$ der Nullvektorraum. \qed \end{kor} \begin{bemerkung} Wenn $\dim V$ endlich ist, dann hat der Vektorraum $Λ^{\dim V} V$ die Dimension ${\dim V \choose n} = 1$! \end{bemerkung} \section{Die äußere Algebra} \label{sec:aAlg2} Ganz analog zur Konstruktion der Tensoralgebra in Abschnitt~\ref{sec:tAlg2} definieren wir die äußere Algebra. Konkret: Gegeben einen Körper $k$, einen $k$-Vektorraum $V$ und zwei positive Zahlen $a$ und $b ∈ ℕ⁺$, definieren wir wie folgt eine Abbildung \[ \begin{matrix} m_{ab} : & Λ^a V ⨯ Λ^b V & → & Λ^{a+b} V \\ & \bigl( (\vec{v}_1 Λ ⋯ Λ \vec{v}_a), (\vec{w}_1 Λ ⋯ Λ \vec{w}_b)\bigr) & ↦ & \vec{v}_1 Λ ⋯ Λ \vec{v}_a Λ \vec{w}_1 Λ ⋯ Λ \vec{w}_b \end{matrix} \] Zusätzlich definieren wir noch die trivialen Randfälle \[ \begin{matrix} m_{0b} : & Λ⁰ V ⨯ Λ^b V & → & Λ^b V \\ & \bigl( λ, (\vec{w}_1 Λ ⋯ Λ \vec{w}_b)\bigr) & ↦ & λ·(\vec{w}_1 Λ ⋯ Λ \vec{w}_b) \end{matrix} \] und \[ \begin{matrix} m_{a0} : & Λ^a V^{⊗ a} ⨯ Λ⁰ V & → & Λ^a V \\ & \bigl( (\vec{v}_1 Λ ⋯ Λ \vec{v}_a), λ\bigr) & ↦ & λ·(\vec{v}_1 Λ ⋯ Λ \vec{v}_a) \end{matrix} \] und \[ \begin{matrix} m_{00} : & Λ⁰ V ⨯ Λ⁰ V & → & Λ⁰ V \\ & (λ,ν) & ↦ & λ·ν. \end{matrix} \] Diese ``Definitionen'' verwenden die analog die schreckliche Notation~\ref{15-2-7}. Rechnen Sie als Hausaufgabe nach, dass die Abbildung wohldefiniert ist! Jetzt definieren wir die äußere Algebra. \begin{konstruktion}[Äußere Algebra] Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Betrachte den Vektorraum \[ T := \bigoplus_{n ∈ ℕ} Λ^n V \] und die Abbildung \[ m : T ⨯ T → T, \quad \bigl( (\vec{v}_a)_{a ∈ ℕ}, (\vec{w}_b)_{b ∈ ℕ} \bigr) ↦ \sum^{∞}_{c=0}\sum^c_{a=0} \sum^{c-a}_{b=0} m_{ab}(\vec{v}_a, \vec{w}_b). \] Erinnern Sie sich dazu noch einmal an die Definition der direkten Summe und vergewissern Sie sich, dass die Summen alle endlich sind! Ich behaupte ohne Beweis, dass dies eine assoziative Algebra mit Eins definiert. Diese wird in der Literatur \emph{äußere Algebra}\index{äußere Algebra} genannt. \end{konstruktion} \begin{bemerkung} Die Tensoralgebra ist praktisch immer unendlich-dimensional. Im Gegensatz dazu ist bei der Konstruktion der äußeren Algebra $Λ^n V = \{\vec{0}\}$ sobald $n>\dim V$ ist. Also ist \[ \dim T = \sum_{n=0}^{\dim V} {\dim V \choose n} \overset{\text{binomi}}{=} 2^{\dim V}. \] Kennen wir diese Zahl irgendwoher? \end{bemerkung} \section{Dachprodukte von Abbildungen} Genau wie bei Tensorprodukten gilt, dass jede lineare Abbildung von Vektorräumen eine Abbildung zwischen den Dachprodukten induziert. \begin{satz}[Dachprodukte von Abbildungen]\label{satz:dpva} Es sei $k$ ein Körper und es sei $V$ ein $k$-Vektorraum. Weiter sei eine Zahl $n ∈ ℕ$ gegeben. Dann gibt es zu jedem Endomorphismus $f : V → V$ genau einen Endomorphismus $η : Λ^n V → Λ^n V$, so dass das folgende Diagramm kommutiert, \[ \begin{tikzcd}[column sep=2cm] V^{⨯ n} \ar[d, "τ"'] \ar[r, "f ⨯ ⋯ ⨯ f"] & V^{⨯ n} \ar[d, "τ"] \\ Λ^n V \ar[r, "η"'] & Λ^n V. \end{tikzcd} \] Die Abbildung $η$ wird auch mit $Λ^n f$ bezeichnet. \end{satz} \begin{proof} Hier ist fast nichts zu zeigen. Die Abbildung $τ◦(f ⨯ ⋯ ⨯ f)$ ist alternierend und multilinear. Also existiert die Abbildung $η$ entsprechend der universellen Eigenschaft. \end{proof} \begin{bemerkung} Für reine Dächer gilt die Gleichung \[ (Λ^n f)(\vec{v}_1 Λ ⋯ Λ \vec{v}_n) = f(\vec{v}_1) Λ ⋯ Λ f(\vec{v}_n) \] \end{bemerkung} Wir müssen wir mit Dachprodukten rechnen lernen. Die folgende Rechnung zeigt, warum Dachprodukte und Determinanten so eng miteinander verbunden sind. Auf geht's. \begin{satz}[Rechnen mit Dachprodukten in Koordinaten]\label{satz:17-4-3} Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum, mit Basis $\{ \vec{e}_1, …, \vec{e}_n\}$. Wenn jetzt Vektoren $\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann berechnet man das Dachprodukt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ wie folgt. \begin{itemize} \item Für jeden Index $i$ schreibe den Vektor $\vec{v}_i$ in Koordinaten, $\vec{v}_i = \sum_{j=1}^n a_{ij}·\vec{e}_j$, und betrachte die Matrix $A := (a_{ij}) ∈ \Mat(n⨯ k, k)$. \item Gegeben Indizes $i_1 < ⋯ < i_k$, sei $A_{i_1, …,i_k} ∈ \Mat(k⨯ k, k)$ die Matrix, die aus den Spalten $i_1, …,i_k$ der Matrix $A$ besteht. \end{itemize} Dann ist \[ \vec{v}_1 Λ ⋯ Λ \vec{v}_k = \sum_{1 ≤ i_1 < ⋯ < i_k ≤ n} (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}. \] \end{satz} \begin{proof} Seien Indizes $1 ≤ i_1 < ⋯ < i_k ≤ n$ gegeben. Ich muss jetzt ausrechnen, was der Koeffizient von $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ in $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$. Dazu fällt mir (leider!) nichts besseres ein, als das Produkt \[ \vec{v}_1 Λ ⋯ Λ \vec{v}_k % = \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n a_{2j}·\vec{e}_j \right) Λ ⋯ Λ \left( \sum_{j=1}^n a_{kj}·\vec{e}_j\right) \] brutal auszumultiplizieren. Die relevanten Terme sind dann die folgenden: \begin{align*} \vec{v}_1 Λ ⋯ Λ \vec{v}_k & = \left( \sum_{j=1}^n a_{1j}·\vec{e}_j \right) Λ \left( \sum_{j=1}^n a_{2j}·\vec{e}_j \right) Λ ⋯ Λ \left( \sum_{j=1}^n a_{kj}·\vec{e}_j\right) \\ & = \sum_{σ ∈ S_k} \left( a_{1σ(i_1)}·\vec{e}_{σ(i_1)}\right) Λ \left( a_{2σ(i_2)}·\vec{e}_{σ(i_2)}\right) Λ ⋯ \left( a_{kσ(i_k)}·\vec{e}_{σ(i_k)}\right) \\ & \qquad\qquad + \left(\text{Rest, der zu $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$ linear unabhängig ist} \right) \\ & = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \vec{e}_{σ(i_1)} Λ \vec{e}_{σ(i_2)} Λ ⋯ Λ \vec{e}_{σ(i_k)}\right) + (\text{Rest}) \\ & = \sum_{σ ∈ S_k} a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}·\left( \sgn(σ)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k}\right) + (\text{Rest}) \\ & = \left( \sum_{σ ∈ S_k} \sgn(σ)·a_{1σ(i_1)}a_{2σ(i_2)}⋯ a_{kσ(i_k)}\right)·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \\ & = (\det A_{i_1, …,i_k})·\vec{e}_{i_1} Λ \vec{e}_{i_2} Λ ⋯ Λ \vec{e}_{i_k} + (\text{Rest}) \end{align*} Damit ist der Satz dann wohl bewiesen. \end{proof} \begin{kor} Es sei $k$ ein Körper und es sei $V$ ein endlich-dimensionaler $k$-Vektorraum. Wenn jetzt Vektoren $\vec{v}_1, …, \vec{v}_k$ aus $V$ gegeben sind, dann sind die folgenden Aussagen äquivalent. \begin{enumerate} \item Die Menge $\{ \vec{v}_1, …, \vec{v}_k \}$ ist linear unabhängig. \item Das äußere Produkt $\vec{v}_1 Λ ⋯ Λ \vec{v}_k$ ist nicht Null. \qed \end{enumerate} \end{kor} \section{Die konzeptionelle Interpretation der Determinante} Ich möchte das Kapitel mit einer inner-mathematischen Anwendung beenden, die ich für wunderschön halte. Dazu betrachte ich zuerst noch einmal die Situation von Satz~\ref{satz:dpva} und nehme an, dass $V$ endlich-dimensional ist, $n := \dim V$. Dann ist $Λ^n V$ ein-dimensional, und die Abbildung $Λ^n f$ ist eine lineare Abbildung von eindimensionalen Vektorräumen. Jede solche Abbildung ist aber gleich der skalaren Multiplikation mit einer Zahl $λ$. Ich frage: ``Was ist $λ$?'' Satz~\ref{satz:17-4-3} gibt unmittelbar eine Antwort auf diese Frage. \begin{kor}[Konzeptionelle Interpretation der Determinante]\label{cor:17-5-1} In der Situation von Satz~\ref{satz:dpva} sei $V$ endlich-dimensional. Dann ist \[ Λ^{\dim V} f = \text{skalare Multiplikation mit }\det f. \eqno \qed \] \end{kor} Ich sehe Korollar~\ref{cor:17-5-1} als eine konzeptionelle Interpretation der Determinante. Da Determinanten extrem eng mit dem Begriff ``Volumen'' aus der Differentialgeometrie verwandt sind, verstehe ich Korollar~\ref{cor:17-5-1} als geometrische Aussage. \subsection{Die Koeffizienten des charakteristischen Polynoms} Es gilt aber noch viel mehr. Erinnern Sie sich an die letzten Vorlesungen von ``Lineare Algebra I''? Dort hatten wir das charakteristische Polynom einer Matrix $A ∈ \Mat(n⨯ n,k)$ diskutiert, \[ χ_A(t) = \det\left(A-t·\Id \right) = (-1)^n·\left(t^n+a_1(A)·t^{n-1}+ ⋯ + a_{n-1}(A)·t + a_n(A) \right). \] Wir hatten staunend festgestellt, dass die Funktionen \[ a_i : \Mat(n⨯ n, k) → k \] auf den Konjugationsklassen konstant sind\footnote{Also: für alle $i$, für alle $A ∈ \Mat(n⨯ n,k)$ und alle $S ∈ GL_n(k)$ ist $a_i(A) = a_i(S·A·S^{-1})$} und haben uns gefragt, was diese Funktionen wohl sind und was sie bedeuten. Damals konnten wir nur zwei dieser Zahlen ausrechnen: wir hatten gesehen, dass \[ a_n(A) = \det(A) \quad\text{und}\quad a_1(A) = \spur(A) \] ist. Mit Hilfe des Dachproduktes können wir alle $a_i$ verstehen! \begin{satz}[Konzeptionelle Bedeutung der Koeffizienten des charakteristischen Polynoms] Es sei $k$ ein Körper, es sei $n ∈ ℕ$, es sei $V$ ein $n$-dimensionaler $k$-Vektorraum und es sei $f ∈ \End(V)$. Schreibe das charakteristische Polynom von $f$ als \[ χ_f(t) = \det\left(f-t·\Id_V \right) = (-1)^n·\left(t^n+a_1·t^{n-1}+ ⋯ + a_{n-1}·t + a_n \right). \] Dann gilt für jeden Index $i$ die Gleichung $a_i = (-1)^n·\spur (Λⁱf)$. \end{satz} \begin{proof} Der Beweis besteht aus zwei Schritten. Im ersten Schritt berechnen wir brutal die Koeffizienten des charakteristischen Polynoms. Im zweiten Schritt berechnen wir brutal die Spur des Endomorphismus $Λⁱf$. In jedem Fall wählen wir eine angeordnete Basis $\{\vec{e}_1, …, \vec{e}_n\}$ von $V$ und nutzen diese Basis, um den Endomorphismus $f$ als Matrix $A = (a_{ij}) ∈ \Mat(n⨯ n)$ zu schreiben. \bigskip \noindent \textbf{Schritt 1:} um die Koeffizienten des charakteristischen Polynoms auszurechnen, interessiere mich für die Matrix \[ B = (b_{ij}) = \begin{pmatrix} a_{11}-t & a_{12} & ⋯ & & a_{n1} \\ a_{21} & \ddots & \ddots & & \vdots \\ \vdots & \ddots \\ & & & & a_{(n-1)n}\\ a_{n1} & ⋯ & & a_{n(n-1)} & a_{nn}-t \end{pmatrix} \] Das charakteristische Polynom ist dann die Determinante von $B$, also \begin{equation}\label{eq:xcydfg} χ_f(t) = \det B = \sum_{σ ∈ S_n} \sgn(σ)·b_{1σ(1)}⋯ b_{nσ(n)}. \end{equation} Für gegebene Permutation $σ$ und gegebenen Index $i$ gilt jetzt \[ b_{iσ(i)} = \left\{ \begin{matrix} a_{ii}-t & \text{falls }σ(i)=i \\ const & \text{sonst} \end{matrix} \right. \] Insgesamt sehe ich, dass ein Summand aus~\eqref{eq:xcydfg} genau dann zum Koeffizienten $a_{n-k}$ von $t^k$ beiträgt, wenn die Permutation $σ$ mindestens $k$ unterschiedliche Indizes festhält. Also ist \begin{align*} a_{n-k} & = (-1)^{n-k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n} \sum_{\txt{\scriptsize $σ ∈ S_n$\\\scriptsize hält $i_1, …, i_k$ fest}} \sgn(σ)·a_{1σ(1)}⋯·a_{nσ(n)} \\ & = (-1)^{n-k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n} \det(\widetilde{A}_{i_1, …, i_k}), \end{align*} wobei $\widetilde{A}_{i_1, …, i_k} ∈ \Mat((n-k)⨯(n-k))$ die Matrix ist, die entsteht, wenn ich aus $A$ die Zeilen und Spalten $i_1, …, i_k$ streiche. Äquivalent kann ich schreiben \begin{equation}\label{eq:A} a_k = (-1)^{k}·\sum_{1≤ i_1 < ⋯ < i_k ≤ n} \det(\widetilde{A}^{i_1, …, i_k}) \end{equation} wobei $\widetilde{A}^{i_1, …, i_k} ∈ \Mat(k⨯ k)$ die Matrix ist, die entsteht, wenn ich aus $A$ alle Zeilen und Spalten bis auf $i_1, …, i_k$ streiche. \bigskip \noindent \textbf{Schritt 2:} jetzt berechnen wir die andere Seite der Gleichung, also die Spur der Abbildung $Λ^k f ∈ \End(Λ^kV)$. Dazu erinnern wir noch einmal daran, dass die Dachprodukte $(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k})_{1≤ i_1 < ⋯ < i_k ≤ n}$ eine Basis von $Λ^k V$ bilden. Gegeben also ein solches Basiselement $\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}$, dann ist nach Satz~\ref{satz:17-4-3} \begin{align*} (Λ^k f)(\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k}) & = f(\vec{e}_{i_1}) Λ ⋯ Λ f(\vec{e}_{i_k}) \\ & = \sum_{1≤ j_1 < ⋯ < j_k ≤ n} \det(A_{j_1, …, j_k})·\vec{e}_{j_1} Λ ⋯ Λ \vec{e}_{j_k} \\ & = \det(A_{i_1, …, i_k})·\vec{e}_{i_1} Λ ⋯ Λ \vec{e}_{i_k} \\ & \qquad\qquad + (\text{Rest, Linearkombination der anderen Basisvektoren}), \end{align*} wobei ich für die Definition der Matrix $A_{i_1, …, i_k}$ noch einmal auf Satz~\ref{satz:17-4-3} verweise. Insgesamt ergibt sich nach Definition der Spur die Gleichung \begin{equation}\label{eq:B} \spur (Λ^k f) = \sum_{1≤ i_1 < ⋯ < i_k ≤ n} \det(A_{i_1, …, i_k}) \end{equation} \bigskip \noindent \textbf{Schritt 3:} Um den Beweis zu beenden, vergleiche \eqref{eq:A} mit \eqref{eq:B} und beachte, dass die Matrix $A_{i_1, …, i_k}$ aus Satz~\ref{satz:17-4-3} genau gleich der Matrix $\widetilde{A}^{i_1, …, i_k}$ ist. \end{proof} % !TEX root = LineareAlgebra2