forked from kebekus/LineareAlgebra2
193 lines
8.5 KiB
TeX
193 lines
8.5 KiB
TeX
% spell checker language
|
||
\selectlanguage{german}
|
||
|
||
\chapter{Hauptachsentransformation}
|
||
|
||
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
|
||
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um
|
||
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
|
||
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
|
||
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
|
||
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
|
||
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den
|
||
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich
|
||
immer in besonders einfache Gestalt bringen!
|
||
|
||
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}
|
||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
|
||
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
|
||
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so
|
||
dass Folgendes gilt.
|
||
\begin{enumerate}
|
||
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
|
||
\[
|
||
B =
|
||
\begin{pmatrix}
|
||
λ_1 && 0\\
|
||
&\ddots\\
|
||
0 && λ_n
|
||
\end{pmatrix}
|
||
\]
|
||
|
||
\item Die Koordinatenwechselmatrix
|
||
$S = \Mat^{\mathcal{B}}_{\mathcal{A}}(\Id_V)$ ist orthogonal oder unitär.
|
||
|
||
\item Die Skalare $λ_i$ sind alle reell. Außerdem sind die $λ_i$ genau die
|
||
Eigenwerte der Matrix $A$.
|
||
\end{enumerate}
|
||
\end{satz}
|
||
\begin{proof}
|
||
\video{16-1}
|
||
\end{proof}
|
||
|
||
\begin{notation}[Hauptachsen und Hauptachsentransformation]
|
||
In der Situation von Satz~\ref{satz:11-0-1} schreibe
|
||
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den
|
||
Vektoren $\vec{v}_{•}$ aufgespannten 1-dimensionalen Untervektorräume
|
||
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von
|
||
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
|
||
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
|
||
\end{notation}
|
||
|
||
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
|
||
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein
|
||
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
|
||
ist.
|
||
|
||
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}
|
||
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
|
||
\begin{enumerate}
|
||
\item Die Form $s$ ist positiv definit.
|
||
\item Alle Eigenwerte von $A$ sind größer als Null.
|
||
\end{enumerate}
|
||
\end{kor}
|
||
|
||
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil
|
||
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
|
||
sind.
|
||
|
||
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
|
||
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass
|
||
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie
|
||
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $ℝ^n$
|
||
bzw. $ℂ^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$
|
||
größer als Null sind.
|
||
\end{proof}
|
||
|
||
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle
|
||
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis
|
||
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig
|
||
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso
|
||
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer
|
||
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen
|
||
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix
|
||
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht
|
||
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir
|
||
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer
|
||
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$
|
||
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen
|
||
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt
|
||
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung
|
||
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich
|
||
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
|
||
|
||
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5}
|
||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter seien
|
||
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden
|
||
Matrizen $A_{•} = \Mat_{\mathcal{A}_{•}}(s)$. Dann gilt folgendes.
|
||
\begin{enumerate}
|
||
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
|
||
|
||
\item Die Anzahlen der negativen Eigenwerte von $A_1$ und $A_2$ sind gleich.
|
||
|
||
\item Es ist $\rang A_1 = \rang A_2$.
|
||
\end{enumerate}
|
||
\end{satz}
|
||
\begin{proof}
|
||
Sie finden einen gut aufgeschriebenen Beweis ab Seite 4 im
|
||
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skript
|
||
von Kollegen Klaus Hulek aus Hannover}.
|
||
\end{proof}
|
||
|
||
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
|
||
|
||
\begin{defn}[Index und Signatur]\label{def:11-0-5}
|
||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man
|
||
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index
|
||
einer Form} bezeichnet. Die Differenz
|
||
\[
|
||
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
|
||
\]
|
||
wird die \emph{Signatur von $s$}\index{Signatur einer
|
||
Form} genannt. Der Untervektorraum
|
||
\[
|
||
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
|
||
\vec{w} ∈ V \} ⊆ V
|
||
\]
|
||
heißt \emph{Entartungsraum}\index{Entartungsraum} oder
|
||
\emph{Nullraum}\index{Nullraum} der Form $s$.
|
||
\end{defn}
|
||
|
||
\begin{bemerkung}
|
||
In der Situation von Definition~\ref{def:11-0-5} rechnet man schnell nach,
|
||
dass die folgende Gleichheit gilt,
|
||
\[
|
||
\text{Rang + Signatur = 2·Index.}
|
||
\]
|
||
\end{bemerkung}
|
||
|
||
Ich ende das Kapitel mit einem Kriterium, das sicherstellen kann, dass eine
|
||
Matrix positive definit ist.
|
||
|
||
\begin{satz}[Hurwitz\footnote{\href{https://de.wikipedia.org/wiki/Adolf_Hurwitz}{Adolf Hurwitz} (* 26. März 1859 in Hildesheim; † 18. November 1919 in Zürich) war ein deutscher Mathematiker.}-Kriterium]
|
||
Es sei
|
||
\[
|
||
A =
|
||
\begin{pmatrix}
|
||
a_{11} & … & a_{n1} \\
|
||
\vdots & & \vdots \\
|
||
a_{n1} & … & a_{nn}
|
||
\end{pmatrix}
|
||
∈ \Mat(n⨯ n, k)
|
||
\]
|
||
eine symmetrische oder Hermitesche Matrix über $k=ℝ$ oder $k=ℂ$. Gegeben eine
|
||
Zahl $m ≤ n$ betrachte die linke obere Ecke der Matrix, also
|
||
\[
|
||
A_m :=
|
||
\begin{pmatrix}
|
||
a_{11} & … & a_{m1} \\
|
||
\vdots & & \vdots \\
|
||
a_{m1} & … & a_{mm}
|
||
\end{pmatrix}
|
||
∈ \Mat(m⨯ m, k).
|
||
\]
|
||
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
|
||
gilt, dass $\det A_m > 0$ ist.
|
||
\end{satz}
|
||
\begin{proof}
|
||
Der Beweis involviert ein wenig unangenehme Rechnerei. Sie finden einen
|
||
Beweis, den ich selbst auch nicht besser bringen könnte, auf Seite 9 des
|
||
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skriptes
|
||
von Kollegen Klaus Hulek aus Hannover}.
|
||
\end{proof}
|
||
|
||
Sie finden im Internet viele gute Erklärvideos zur Anwendung des
|
||
Hurwitz-Kriteriums. Zum Beispiel
|
||
\href{https://www.youtube.com/watch?v=V6f-yBu146M}{hier}.
|
||
|
||
\begin{bemerkung}[Vorsicht Falle]
|
||
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
|
||
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
|
||
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
|
||
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau
|
||
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist''
|
||
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium
|
||
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich
|
||
das richtig machen?
|
||
\end{bemerkung}
|
||
|
||
% !TEX root = LineareAlgebra2
|