LineareAlgebra2/11-Hauptachsen.tex
Stefan Kebekus bd2fd06b37 Add proof
2025-04-24 10:59:46 +02:00

193 lines
8.5 KiB
TeX
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Hauptachsentransformation}
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich
immer in besonders einfache Gestalt bringen!
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so
dass Folgendes gilt.
\begin{enumerate}
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
\[
B =
\begin{pmatrix}
λ_1 && 0\\
&\ddots\\
0 && λ_n
\end{pmatrix}
\]
\item Die Koordinatenwechselmatrix
$S = \Mat^{\mathcal{B}}_{\mathcal{A}}(\Id_V)$ ist orthogonal oder unitär.
\item Die Skalare $λ_i$ sind alle reell. Außerdem sind die $λ_i$ genau die
Eigenwerte der Matrix $A$.
\end{enumerate}
\end{satz}
\begin{proof}
\video{16-1}
\end{proof}
\begin{notation}[Hauptachsen und Hauptachsentransformation]
In der Situation von Satz~\ref{satz:11-0-1} schreibe
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den
Vektoren $\vec{v}_{}$ aufgespannten 1-dimensionalen Untervektorräume
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
\end{notation}
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
ist.
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
\begin{enumerate}
\item Die Form $s$ ist positiv definit.
\item Alle Eigenwerte von $A$ sind größer als Null.
\end{enumerate}
\end{kor}
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
sind.
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $^n$
bzw. $^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$
größer als Null sind.
\end{proof}
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5}
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter seien
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden
Matrizen $A_{} = \Mat_{\mathcal{A}_{}}(s)$. Dann gilt folgendes.
\begin{enumerate}
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
\item Die Anzahlen der negativen Eigenwerte von $A_1$ und $A_2$ sind gleich.
\item Es ist $\rang A_1 = \rang A_2$.
\end{enumerate}
\end{satz}
\begin{proof}
Sie finden einen gut aufgeschriebenen Beweis ab Seite 4 im
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skript
von Kollegen Klaus Hulek aus Hannover}.
\end{proof}
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
\begin{defn}[Index und Signatur]\label{def:11-0-5}
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index
einer Form} bezeichnet. Die Differenz
\[
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
\]
wird die \emph{Signatur von $s$}\index{Signatur einer
Form} genannt. Der Untervektorraum
\[
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
\vec{w} ∈ V \} ⊆ V
\]
heißt \emph{Entartungsraum}\index{Entartungsraum} oder
\emph{Nullraum}\index{Nullraum} der Form $s$.
\end{defn}
\begin{bemerkung}
In der Situation von Definition~\ref{def:11-0-5} rechnet man schnell nach,
dass die folgende Gleichheit gilt,
\[
\text{Rang + Signatur = 2·Index.}
\]
\end{bemerkung}
Ich ende das Kapitel mit einem Kriterium, das sicherstellen kann, dass eine
Matrix positive definit ist.
\begin{satz}[Hurwitz\footnote{\href{https://de.wikipedia.org/wiki/Adolf_Hurwitz}{Adolf Hurwitz} (* 26. März 1859 in Hildesheim; † 18. November 1919 in Zürich) war ein deutscher Mathematiker.}-Kriterium]
Es sei
\[
A =
\begin{pmatrix}
a_{11} && a_{n1} \\
\vdots & & \vdots \\
a_{n1} && a_{nn}
\end{pmatrix}
\Mat(n n, k)
\]
eine symmetrische oder Hermitesche Matrix über $k=$ oder $k=$. Gegeben eine
Zahl $m ≤ n$ betrachte die linke obere Ecke der Matrix, also
\[
A_m :=
\begin{pmatrix}
a_{11} && a_{m1} \\
\vdots & & \vdots \\
a_{m1} && a_{mm}
\end{pmatrix}
\Mat(m m, k).
\]
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
gilt, dass $\det A_m > 0$ ist.
\end{satz}
\begin{proof}
Der Beweis involviert ein wenig unangenehme Rechnerei. Sie finden einen
Beweis, den ich selbst auch nicht besser bringen könnte, auf Seite 9 des
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skriptes
von Kollegen Klaus Hulek aus Hannover}.
\end{proof}
Sie finden im Internet viele gute Erklärvideos zur Anwendung des
Hurwitz-Kriteriums. Zum Beispiel
\href{https://www.youtube.com/watch?v=V6f-yBu146M}{hier}.
\begin{bemerkung}[Vorsicht Falle]
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist''
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich
das richtig machen?
\end{bemerkung}
% !TEX root = LineareAlgebra2