LineareAlgebra2/01-Wiederholung.tex
Stefan Kebekus 0fed897098 Cleanup
2025-04-07 13:20:44 +02:00

190 lines
7.4 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Wiederholung}
\section{Endomorphismen, Eigenwerte, Eigenvektoren}
\sideremark{Vorlesung 1}Am Ende der Vorlesung ``Lineare Algebra I'' hatten wir
folgende Situation betrachtet.
\begin{situation}\label{sit:LA1}
Es sei $k$ ein Körper, es sei $V$ ein endlich-dimensionaler Vektorraum und es
sei $f ∈ \End(V)$ ein Endomorphismus des Vektorraumes $V$, also eine
$k$-lineare Abbildung $f : V → V$.
\end{situation}
Das Ziel war, eine angeordnete Basis $B$ von $V$ zu finden, so dass die Matrix
$\Mat^B_B(f)$ möglichst einfach wird. Am besten wäre es, wenn die Matrix
Diagonalgestalt hat.
\begin{defn}[Diagonalisierbarer Endomorphismus]
In Situation~\ref{sit:LA1}: der Endomorphismus $f$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Endomorphismus}, falls es eine
Basis $B$ von $V$ gibt, so dass $\Mat^B_B$ eine Diagonalmatrix ist.
\end{defn}
Einen entsprechenden Begriff hatten wir auch für Matrizen definiert.
\begin{defn}[Diagonalisierbare Matrix]
Es sei $k$ ein Körper und $n ∈ $ eine Zahl. Eine $n n$-Matrix $A$ heißt
\emph{diagonalisierbar}\index{diagonalisierbar!Matrix}, falls sie einer
Diagonalmatrix ähnlich ist, d. h. $∃S ∈ Gl_n(k)$, so dass $SAS^{-1}$ eine
Diagonalmatrix ist.
\end{defn}
Die zentralen Begriffe in diesem Zusammenhang waren ``Eigenwert'',
``Eigenvektor'' und ``Eigenraum''.
\begin{defn}[Eigenwert]
Situation wie in \ref{sit:LA1}. Ein Skalar $λ ∈ k$ heißt \emph{Eigenwert von
$f$}\index{Eigenwert}, wenn es einen Vektor $\vec{v} ∈ V \{\vec{0}\}$
gibt, so dass $f(\vec{v}) = λ\vec{v}$ ist.
\end{defn}
\begin{defn}[Eigenraum]
Situation wie in \ref{sit:LA1}. Gegeben ein Skalar $λ ∈ k$, dann nenne
$$
V_{λ} := \{ \vec{v} ∈ V \:|\: f(\vec{v}) = λ \vec{v} \}
$$
den \emph{Eigenraum von $f$ zum Eigenwert $λ$}\index{Eigenraum}.
\end{defn}
\begin{defn}[Eigenvektor]
Situation wie in \ref{sit:LA1}. Ein Vektor $\vec{v} ∈ V \{\vec{0}\}$ heißt
\emph{Eigenvektor von $f$}\index{Eigenvektor}, wenn es ein Skalar $λ ∈ k$
gibt, so dass $f(\vec{v}) = λ\vec{v}$ ist.
\end{defn}
Ich erinnere daran, dass der Eigenraum immer ein Untervektorraum von $V$ ist.
In der Vorlesung hatten wir ein Verfahren betrachtet, um die Eigenwerte
auszurechnen: die Eigenwerte von $f$ sind genau die Nullstellen des
charakteristischen Polynoms
\[
χ_f(t) := \det \bigl( f - t \Id_V \bigr).
\]
\textbf{Achtung!} Die Definition des charakteristischen Polynoms ist in der
Literatur nicht ganz einheitlich. Manche Autoren bezeichenen auch das Polynom
$\det \bigl( t \Id_V - f \bigr)$ als charakteristisches Polynom. In der Praxis
macht das keinen Unterschied, weil sich die beiden Polynome höchstens um ein
Vorzeichen unterscheiden und wir sowieso nur an den Nullstellen interessiert
sind. Ich werde versuchen, durchgehend die Konvention
$χ_f(t) := \det \bigl( f - t \Id_V \bigr)$ zu verwenden\footnote{Wie ich mich
kenne, wird das aber nicht immer gelingen. Bitte informieren Sie mich, wenn
Sie irgendwo einen Vorzeichenfehler sehen. Ich wurde gefragt, welche
Konvention in Übungsaufgaben und in der Klausur verwendet werden sollen. Der
Einheitlichkeit und Einfachheit halber wäre es schön, wenn alle die oben
angegebene Konvention nutzen, aber eigentlich ist mir die Konvention
egal. Hauptsache, ihre Lösung ist richtig und wir können verstehen, was Sie
machen! Melden Sie sich, wenn Ihnen irgendwo Punkte abgezogen wurden.}.
\begin{erinnerung}[Komplexe Polynome zerfallen in Linearfaktoren]
Für $k = $ gilt: Jedes Polynom hat eine Nullstelle. Insbesondere gilt, dass
ich jedes Polynom über $$ als Produkt von linearen Polynomen schreiben kann.
Zum Beispiel ist
$$
g(z) = (z - i)·(z + i)·(z + i)·(z + i)·(z - 2)·(z - 3).
$$
Also ist $\deg(g) = 6$ und die Nullstellen von g sind $i$, $2$ und $3$
(jeweils mit Vielfachheit 1) sowie $-i$ (mit Vielfachheit 3).
\end{erinnerung}
\section{Algebraische und geometrische Vielfachheit}
Zurück zur Situation~\ref{sit:LA1}. Wenn ich nun ein Skalar $λ ∈ k$ gegeben
habe, kann ich zwei Zahlen betrachten, nämlich
\begin{itemize}
\item Die \emph{algebraische Vielfachheit von
$λ$}\index{Vielfachheit!algebraische} ist die Vielfachheit von $λ$ als
Nullstelle des charakteristischen Polynoms.
\item Die \emph{geometrische Vielfachheit von
$λ$}\index{Vielfachheit!geometrische} ist die Dimension des Vektorraumes
$V_{λ}$.
\end{itemize}
\begin{bsp}\label{bsp:1.1}
Es sei $k = $, es sei $V = ℂ²$ und es sei $f : V → V$ gegeben durch die
Matrix
$$
\begin{pmatrix}
2 & 3 \\ 0 & 2
\end{pmatrix}
$$
Dann ist $χ_f(t) = (2 - t)²$. Wir betrachten das Skalar $λ = 2$. Dies ist
eine doppelte Nullstelle des charakteristischen Polynoms und die algebraische
Vielfachheit von $λ$ ist zwei. Auf der anderen Seite ist
$$
V_2 = · \begin{pmatrix} 1 \\ 0 \end{pmatrix}
$$
Also ist die geometrische Vielfachheit von $λ$ gleich eins.
\end{bsp}
\begin{prop}[Vergleich von alg.\ und geom.~Vielfachheit]
In Situation~\ref{sit:LA1} sei $λ ∈ k$ ein Skalar, dann gilt:
$$
\text{algebraische Vielfachheit }\text{ geometrische Vielfachheit}
$$
\end{prop}
\begin{proof}
Sei ein Skalar $λ$ gegeben. Falls geometrische Vielfachheit von $λ$ gleich
Null ist, ist nichts zu zeigen. Sei also die geometrische Vielfachheit $d$
größer als Null. Das bedeutet: es gibt eine lineare unabhängige (angeordnete)
Teilmenge $\{ \vec{v}_1, … , \vec{v}_d \} ⊂ V$, die ich zu einer
(angeordneten) Basis $B$ von $V$ ergänzen kann. Dann ist die zugehörige
Matrix von der Form
$$
\Mat^B_B (f) = \left(
\begin{array}{lll|l}
λ & & & \\
& \ddots & & * \\
& & λ \\
\hline
& 0 & & *
\end{array}\right)
$$
Als Konsequenz ergibt sich, dass das charakteristische Polynom $χ_f$ von $f$
die folgende Form hat,
$$
χ_f (t) = (t - λ)^d · \text{(weiteres, unbekanntes Polynom)}
$$
Also ist die algebraische Vielfachheit von $λ$ ist mindestens gleich $d$.
\end{proof}
\section{Diagonalisierbarkeit}
Wie hängen Diagonalisierbarkeit und die algebraischen/geometrischen
Vielfachheiten zusammen? Der folgende Satz gibt eine erste Antwort, zumindest
über den komplexen Zahlen. Im folgenden Kapitel werden wir eine bessere Antwort
kennen lernen.
\begin{satz}[Diagonalisierbarkeit und Vielfachheiten]\label{satz:1.1}
In Situation~\ref{sit:LA1} sind die folgenden Aussagen äquivalent.
\begin{enumerate}
\item Der Endormorphismus $f$ ist diagonalisierbar.
\item Das charakteristische Polynom $χ_f(t)$ zerfällt in Linearfaktoren und
für jeden Eigenwert $λ$ stimmen geometrische und algebraische Vielfachheit
überein. \qed
\end{enumerate}
\end{satz}
Als direkte Anwendung von Satz~\ref{satz:1.1} ergibt sich, dass die Matrix aus
Beispiel~\ref{bsp:1.1} nicht diagonalisierbar ist. Der Beweis von
Satz~\ref{satz:1.1} verwendet folgendes Lemma.
\begin{lemma}\label{lem:1.1}
In Situation~\ref{sit:LA1} seien $λ_1, …, λ_d$ unterschiedliche Eigenwerte von
$f$ und $\vec{v}_1, …, \vec{v}_d$ seien zugehörige Eigenvektoren. Dann ist
die Menge $\{\vec{v}_1, …, \vec{v}_d \}$ linear unabhängig. \qed
\end{lemma}
Sie sollten versuchen, Satz~\ref{satz:1.1} und Lemma~\ref{lem:1.1} selbst zu
beweisen. Der Beweis von Lemma~\ref{lem:1.1} funktioniert mit Induktion nach
$d$. Die Auflösung finden Sie in \video{1-1} und \video{1-2}.
% !TEX root = LineareAlgebra2