LineareAlgebra2/11-Hauptachsen.tex
Stefan Kebekus 3f631e4eaf Working
2025-06-24 13:59:10 +02:00

197 lines
8.5 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Hauptachsentransformation}
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
Kapitel „Euklidische und Hermitesche Vektorräume“, denn hier geht es nicht um
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
„fast“. Durch eine geeignete Abwandlung der Methode erhalten wir den folgenden
Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich immer in
besonders einfache Gestalt bringen!
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, sodass
Folgendes gilt.
\begin{enumerate}
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
\[
B =
\begin{pmatrix}
λ_1 && 0\\
&\ddots\\
0 && λ_n
\end{pmatrix}.
\]
\item Die Koordinatenwechselmatrix
$S = \Mat^{\mathcal{B}}_{\mathcal{A}}(\Id_V)$ ist orthogonal oder unitär.
\item Die Skalare $λ_i$ sind alle reell. Außerdem sind die $λ_i$ genau die
Eigenwerte der Matrix $A$.
\end{enumerate}
\end{satz}
\begin{proof}
\video{16-1}
\end{proof}
\begin{notation}[Hauptachsen und Hauptachsentransformation]
In der Situation von Satz \ref{satz:11-0-1} schreibe $\mathcal B = \{
\vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den Vektoren $\vec{v}_$
aufgespannten 1-dimensionalen Untervektorräume von $V$ die
\emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von der Basis
$\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
\end{notation}
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
haben viele Anwendungen. Wir stellen hier lediglich fest, dass der Satz ein
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
ist.
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}%
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
\begin{enumerate}
\item Die Form $s$ ist positiv definit.
\item Alle Eigenwerte von $A$ sind größer als Null.
\end{enumerate}
\end{kor}
Die Aussage „Alle Eigenwerte von $A$ sind größer als Null“ ist sinnvoll, weil
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
sind.
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass $B =
\Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie $A$
hat. Es ist aber klar, dass die durch $B$ definierte Form auf $^n$ bzw.
$^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$ größer
als Null sind.
\end{proof}
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft „alle
Eigenwerte von $A$ sind größer als Null“ nicht von der Wahl der Basis $\mathcal
A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig verwirrt,
weil Sie meinen „Die Eigenwerte einer Matrix hängen doch sowieso nie von der
Wahl der Basis ab.“ Überlegen Sie sich aber, was Sie mit „einer Matrix“ meinen.
Vielleicht denken Sie an den Fall, wo man einen Endomorphismus eines
Vektorraumes hat, eine Basis wählt und dann die Matrix des Endomorphismus
betrachtet. Dann hängen die Eigenwerte tatsächlich nicht von der Wahl der Basis
ab. Hier machen wir aber etwas ganz Anderes: wir betrachten nicht die Matrix
eines Endomorphismus, sondern die Matrix einer Form.}. Der folgende Satz
verallgemeinert diese Beobachtung: auch wenn $s$ nicht unbedingt positiv definit
ist, hängt die Wahl der positiven/negativen Eigenwerte nicht von der Wahl der
Basis ab. Der Satz~\ref{satz:11-0-5} heißt „Trägheitssatz“, weil er in der
klassischen Mechanik, wo es um die Bewegung massebehafteter (=träger) starrer
Körper geht, eine besondere Rolle spielt. Ich komme im folgenden Kapitel noch
einmal auf diesen Punkt zurück.
\begin{satz}[Trägheitssatz von
Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James
Joseph Sylvester} (* 3.~September 1814 in London; † 15.~März 1897 in London)
war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum
Studium in Cambridge zugelassen wurde.}]\label{satz:11-0-5} Es sei $V$ ein
endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und es sei $s: V
V → k$ eine symmetrische oder Hermitesche Form. Weiter seien $\mathcal{A}_1,
\mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden Matrizen $A_=
\Mat_{\mathcal{A}_}(s)$. Dann gilt Folgendes.
\begin{enumerate}
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
\item Die Anzahlen der negativen Eigenwerte von $A_1$ und $A_2$ sind gleich.
\item Es ist $\rang A_1 = \rang A_2$.
\end{enumerate}
\end{satz}
\begin{proof}
Sie finden einen gut aufgeschriebenen Beweis ab Seite 4 im
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skript
von Kollegen Klaus Hulek aus Hannover}.
\end{proof}
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
\begin{defn}[Index und Signatur]\label{def:11-0-5}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Die Anzahl der
positiven Eigenwerte wird als \emph{Index von $s$}\index{Index einer Form}
bezeichnet. Die Differenz
\[
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
\]
wird die \emph{Signatur von $s$}\index{Signatur einer Form} genannt. Der
Untervektorraum
\[
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
\vec{w} ∈ V \} ⊆ V
\]
heißt \emph{Entartungsraum}\index{Entartungsraum} oder
\emph{Nullraum}\index{Nullraum} der Form $s$.
\end{defn}
\begin{bemerkung}
In der Situation von Definition~\ref{def:11-0-5} rechnet man schnell nach,
dass die folgende Gleichheit gilt,
\[
\text{Rang + Signatur = 2·Index.}
\]
\end{bemerkung}
Ich ende das Kapitel mit einem Kriterium, das sicherstellen kann, dass eine
Matrix positive definit ist.
\begin{satz}[Hurwitz\footnote{\href{https://de.wikipedia.org/wiki/Adolf_Hurwitz}{Adolf Hurwitz} (* 26. März 1859 in Hildesheim; † 18. November 1919 in Zürich) war ein deutscher Mathematiker.}-Kriterium]
Es sei
\[
A =
\begin{pmatrix}
a_{11} && a_{n1} \\
\vdots & & \vdots \\
a_{n1} && a_{nn}
\end{pmatrix}
\Mat(n n, k)
\]
eine symmetrische oder Hermitesche Matrix über $k=$ oder $k=$. Gegeben eine
Zahl $m ≤ n$ betrachte die linke obere Ecke der Matrix, also
\[
A_m :=
\begin{pmatrix}
a_{11} && a_{m1} \\
\vdots & & \vdots \\
a_{m1} && a_{mm}
\end{pmatrix}
\Mat(m m, k).
\]
Dann gilt: Die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
gilt, dass $\det A_m > 0$ ist.
\end{satz}
\begin{proof}
Der Beweis involviert ein wenig unangenehme Rechnerei. Sie finden einen
Beweis, den ich selbst auch nicht besser bringen könnte, auf Seite 9 des
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skriptes
von Kollegen Klaus Hulek aus Hannover}.
\end{proof}
Sie finden im Internet viele gute Erklärvideos zur Anwendung des
Hurwitz-Kriteriums. Zum Beispiel
\href{https://www.youtube.com/watch?v=V6f-yBu146M}{hier}.
\begin{bemerkung}[Vorsicht Falle]
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
mithilfe eines Gegenbeispiels, dass die Aussage „die Matrix $A$ ist genau dann
negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist“ einfach
nicht stimmt. Bonusfrage: Natürlich kann man das Hurwitz-Kriterium verwenden,
um eine Matrix auf negative Definitheit zu testen. Wie muss ich das richtig
machen?
\end{bemerkung}
% !TEX root = LineareAlgebra2