forked from kebekus/LineareAlgebra2
199 lines
7.6 KiB
TeX
199 lines
7.6 KiB
TeX
%
|
||
% Do not edit the following line. The text is automatically updated by
|
||
% subversion.
|
||
%
|
||
\svnid{$Id: 01-Wiederholung.tex 22 2020-05-12 14:33:32Z kebekus $}
|
||
|
||
\chapter{Wiederholung}
|
||
\sideremark{Revision \svnfilerev\\ \svnfileday.\svnfilemonth.\svnfileyear}
|
||
|
||
|
||
\section{Endomorphismen, Eigenwerte, Eigenvektoren}
|
||
|
||
\sideremark{Vorlesung 1}Am Ende der Vorlesung ``Lineare Algebra I'' hatten wir
|
||
folgende Situation betrachtet.
|
||
|
||
\begin{situation}\label{sit:LA1}
|
||
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler Vektorraum und es
|
||
sei $f ∈ \End(V)$ ein Endomorphismus des Vektorraumes $V$, also eine
|
||
$k$-lineare Abbildung $f : V → V$.
|
||
\end{situation}
|
||
|
||
Das Ziel war, eine angeordnete Basis $B$ von $V$ zu finden, so dass die Matrix
|
||
$\Mat^B_B(f)$ möglichst einfach wird. Am besten wäre es, wenn die Matrix
|
||
Diagonalgestalt hat.
|
||
|
||
\begin{defn}[Diagonalisierbarer Endomorphismus]
|
||
In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt
|
||
\emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine
|
||
Basis $B$ von $V$ gibt, so dass $\Mat^B_B$ eine Diagonalmatrix ist.
|
||
\end{defn}
|
||
|
||
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
|
||
|
||
\begin{defn}[Diagonalisierbare Matrix]
|
||
Es sei $k$ ein Körper und $n ∈ ℕ$ eine Zahl. Eine $n ⨯ n$-Matrix $A$ heißt
|
||
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
|
||
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ Gl_n(k)$, so dass $SAS^{-1}$ eine
|
||
Diagonalmatrix ist.
|
||
\end{defn}
|
||
|
||
Die zentralen Begriffe in diesem Zusammenhang waren ``Eigenwert'',
|
||
``Eigenvektor'' und ``Eigenraum''.
|
||
|
||
\begin{defn}[Eigenwert]
|
||
Situation wie in \ref{sit:LA1}. Ein Skalar $λ ∈ k$ heißt \emph{Eigenwert von
|
||
$f$}\index{Eigenwert}, wenn es einen Vektor $\vec{v} ∈ V ∖ \{\vec{0}\}$
|
||
gibt, so dass $f(\vec{v}) = λ\vec{v}$ ist.
|
||
\end{defn}
|
||
|
||
\begin{defn}[Eigenraum]
|
||
Situation wie in \ref{sit:LA1}. Gegeben ein Skalar $λ ∈ k$, dann nenne
|
||
$$
|
||
V_{λ} := \{ \vec{v} ∈ V \:|\: f(\vec{v}) = λ \vec{v} \}
|
||
$$
|
||
den \emph{Eigenraum von $f$ zum Eigenwert $λ$}\index{Eigenraum}.
|
||
\end{defn}
|
||
|
||
\begin{defn}[Eigenvektor]
|
||
Situation wie in \ref{sit:LA1}. Ein Vektor $\vec{v} ∈ V ∖ \{\vec{0}\}$ heißt
|
||
\emph{Eigenvektor von $f$}\index{Eigenvektor}, wenn es ein Skalar $λ ∈ k$
|
||
gibt, so dass $f(\vec{v}) = λ\vec{v}$ ist.
|
||
\end{defn}
|
||
|
||
Ich erinnere daran, dass der Eigenraum immer ein Untervektorraum von $V$ ist.
|
||
In der Vorlesung hatten wir ein Verfahren betrachtet, um die Eigenwerte
|
||
auszurechnen: die Eigenwerte von $f$ sind genau die Nullstellen des
|
||
charakteristischen Polynoms
|
||
\[
|
||
χ_f(t) := \det \bigl( f - t \Id_V \bigr).
|
||
\]
|
||
\textbf{Achtung!} Die Definition des charakteristischen Polynoms ist in der
|
||
Literatur nicht ganz einheitlich. Manche Autoren bezeichenen auch das Polynom
|
||
$\det \bigl( t \Id_V - f \bigr)$ als charakteristisches Polynom. In der Praxis
|
||
macht das keinen Unterschied, weil sich die beiden Polynome höchstens um ein
|
||
Vorzeichen unterscheiden und wir sowieso nur an den Nullstellen interessiert
|
||
sind. Ich werde versuchen, durchgehend die Konvention
|
||
$χ_f(t) := \det \bigl( f - t \Id_V \bigr)$ zu verwenden\footnote{Wie ich mich
|
||
kenne, wird das aber nicht immer gelingen. Bitte informieren Sie mich, wenn
|
||
Sie irgendwo einen Vorzeichenfehler sehen. Ich wurde gefragt, welche
|
||
Konvention in Übungsaufgaben und in der Klausur verwendet werden sollen. Der
|
||
Einheitlichkeit und Einfachheit halber wäre es schön, wenn alle die oben
|
||
angegebene Konvention nutzen, aber eigentlich ist mir die Konvention
|
||
egal. Hauptsache, ihre Lösung ist richtig und wir können verstehen, was Sie
|
||
machen! Melden Sie sich, wenn Ihnen irgendwo Punkte abgezogen wurden.}.
|
||
|
||
\begin{erinnerung}[Komplexe Polynome zerfallen in Linearfaktoren]
|
||
Für $k = ℂ$ gilt: Jedes Polynom hat eine Nullstelle. Insbesondere gilt, dass
|
||
ich jedes Polynom über $ℂ$ als Produkt von linearen Polynomen schreiben kann.
|
||
Zum Beispiel ist
|
||
$$
|
||
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
|
||
$$
|
||
Also ist $\deg(g) = 6$ und die Nullstellen von g sind $i$, $2$ und $3$
|
||
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
|
||
\end{erinnerung}
|
||
|
||
|
||
\section{Algebraische und geometrische Vielfachheit}
|
||
|
||
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun ein Skalar $λ ∈ k$ gegeben
|
||
habe, kann ich zwei Zahlen betrachten, nämlich
|
||
\begin{itemize}
|
||
\item Die \emph{algebraische Vielfachheit von
|
||
$λ$}\index{Vielfachheit!algebraische} ist die Vielfachheit von $λ$ als
|
||
Nullstelle des charakteristischen Polynoms.
|
||
|
||
\item Die \emph{geometrische Vielfachheit von
|
||
$λ$}\index{Vielfachheit!geometrische} ist die Dimension des Vektorraumes
|
||
$V_{λ}$.
|
||
\end{itemize}
|
||
|
||
\begin{bsp}\label{bsp:1.1}
|
||
Es sei $k = ℂ$, es sei $V = ℂ²$ und es sei $f : V → V$ gegeben durch die
|
||
Matrix
|
||
$$
|
||
\begin{pmatrix}
|
||
2 & 3 \\ 0 & 2
|
||
\end{pmatrix}
|
||
$$
|
||
Dann ist $χ_f(t) = (2 - t)²$. Wir betrachten das Skalar $λ = 2$. Dies ist
|
||
eine doppelte Nullstelle des charakteristischen Polynoms und die algebraische
|
||
Vielfachheit von $λ$ ist zwei. Auf der anderen Seite ist
|
||
$$
|
||
V_2 = ℂ · \begin{pmatrix} 1 \\ 0 \end{pmatrix}
|
||
$$
|
||
Also ist die geometrische Vielfachheit von $λ$ gleich eins.
|
||
\end{bsp}
|
||
|
||
\begin{prop}[Vergleich von alg.\ und geom.~Vielfachheit]
|
||
In Situation~\ref{sit:LA1} sei $λ ∈ k$ ein Skalar, dann gilt:
|
||
$$
|
||
\text{algebraische Vielfachheit } ≥ \text{ geometrische Vielfachheit}
|
||
$$
|
||
\end{prop}
|
||
\begin{proof}
|
||
Sei ein Skalar $λ$ gegeben. Falls geometrische Vielfachheit von $λ$ gleich
|
||
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
|
||
größer als Null. Das bedeutet: es gibt eine lineare unabhängige (angeordnete)
|
||
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
|
||
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
|
||
Matrix von der Form
|
||
$$
|
||
\Mat^B_B (f) = \left(
|
||
\begin{array}{lll|l}
|
||
λ & & & \\
|
||
& \ddots & & * \\
|
||
& & λ \\
|
||
\hline
|
||
& 0 & & *
|
||
\end{array}\right)
|
||
$$
|
||
Als Konsequenz ergibt sich, dass das charakteristische Polynom $χ_f$ von $f$
|
||
die folgende Form hat,
|
||
$$
|
||
χ_f (t) = (t - λ)^d · \text{(weiteres, unbekanntes Polynom)}
|
||
$$
|
||
Also ist die algebraische Vielfachheit von $λ$ ist mindestens gleich $d$.
|
||
\end{proof}
|
||
|
||
|
||
\section{Diagonalisierbarkeit}
|
||
|
||
Wie hängen Diagonalisierbarkeit und die algebraischen/geometrischen
|
||
Vielfachheiten zusammen? Der folgende Satz gibt eine erste Antwort, zumindest
|
||
über den komplexen Zahlen. Im folgenden Kapitel werden wir eine bessere Antwort
|
||
kennen lernen.
|
||
|
||
\begin{satz}[Diagonalisierbarkeit und Vielfachheiten]\label{satz:1.1}
|
||
In Situation~\ref{sit:LA1} sind die folgenden Aussagen äquivalent.
|
||
\begin{enumerate}
|
||
\item Der Endormorphismus $f$ ist diagonalisierbar.
|
||
|
||
\item Das charakteristische Polynom $χ_f(t)$ zerfällt in Linearfaktoren und
|
||
für jeden Eigenwert $λ$ stimmen geometrische und algebraische Vielfachheit
|
||
überein. \qed
|
||
\end{enumerate}
|
||
\end{satz}
|
||
|
||
Als direkte Anwendung von Satz~\ref{satz:1.1} ergibt sich, dass die Matrix aus
|
||
Beispiel~\ref{bsp:1.1} nicht diagonalisierbar ist. Der Beweis von
|
||
Satz~\ref{satz:1.1} verwendet folgendes Lemma.
|
||
|
||
\begin{lemma}\label{lem:1.1}
|
||
In Situation~\ref{sit:LA1} seien $λ_1, …, λ_d$ unterschiedliche Eigenwerte von
|
||
$f$ und $\vec{v}_1, …, \vec{v}_d$ seien zugehörige Eigenvektoren. Dann ist
|
||
die Menge $\{\vec{v}_1, …, \vec{v}_d \}$ linear unabhängig. \qed
|
||
\end{lemma}
|
||
|
||
Sie sollten versuchen, Satz~\ref{satz:1.1} und Lemma~\ref{lem:1.1} selbst zu
|
||
beweisen. Der Beweis von Lemma~\ref{lem:1.1} funktioniert mit Induktion nach
|
||
$d$. Die Auflösung finden Sie in \video{1-1} und \video{1-2}.
|
||
|
||
|
||
%%% Local Variables:
|
||
%%% mode: latex
|
||
%%% TeX-master: "20LA2"
|
||
%%% End:
|
||
|