This commit is contained in:
Stefan Kebekus 2025-06-24 13:59:10 +02:00
parent 639481f8c0
commit 3f631e4eaf
4 changed files with 66 additions and 55 deletions

View File

@ -84,3 +84,7 @@ Stryker
Gallup-Test
OCEAN-Modell
PCA
massebehafteter
Sylvester
Hurwitz-Kriteriums
Hurwitz-Kriterium

View File

@ -56,3 +56,4 @@
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWie kommt man auf die Zahl „fünf“?.\\E$"}
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q… und weiter?.\\E$"}
{"rule":"GERMAN_WORD_REPEAT_BEGINNING_RULE","sentence":"^\\QDie Skalare \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q sind alle reell.\\E$"}

View File

@ -0,0 +1,2 @@
{"rule":"ADMIT_ENJOY_VB","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
{"rule":"MORFOLOGIK_RULE_EN_US","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}

View File

@ -4,21 +4,21 @@
\chapter{Hauptachsentransformation}
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um
Kapitel „Euklidische und Hermitesche Vektorräume“, denn hier geht es nicht um
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich
immer in besonders einfache Gestalt bringen!
„fast“. Durch eine geeignete Abwandlung der Methode erhalten wir den folgenden
Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich immer in
besonders einfache Gestalt bringen!
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so
dass Folgendes gilt.
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, sodass
Folgendes gilt.
\begin{enumerate}
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
\[
@ -27,7 +27,7 @@ immer in besonders einfache Gestalt bringen!
λ_1 && 0\\
&\ddots\\
0 && λ_n
\end{pmatrix}
\end{pmatrix}.
\]
\item Die Koordinatenwechselmatrix
@ -42,20 +42,20 @@ immer in besonders einfache Gestalt bringen!
\end{proof}
\begin{notation}[Hauptachsen und Hauptachsentransformation]
In der Situation von Satz~\ref{satz:11-0-1} schreibe
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den
Vektoren $\vec{v}_{}$ aufgespannten 1-dimensionalen Untervektorräume
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
In der Situation von Satz \ref{satz:11-0-1} schreibe $\mathcal B = \{
\vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den Vektoren $\vec{v}_$
aufgespannten 1-dimensionalen Untervektorräume von $V$ die
\emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von der Basis
$\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
\end{notation}
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein
haben viele Anwendungen. Wir stellen hier lediglich fest, dass der Satz ein
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
ist.
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}%
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
\begin{enumerate}
\item Die Form $s$ ist positiv definit.
@ -63,40 +63,44 @@ ist.
\end{enumerate}
\end{kor}
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil
Die Aussage „Alle Eigenwerte von $A$ sind größer als Null“ ist sinnvoll, weil
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
sind.
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $^n$
bzw. $^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$
größer als Null sind.
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass $B =
\Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie $A$
hat. Es ist aber klar, dass die durch $B$ definierte Form auf $^n$ bzw.
$^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$ größer
als Null sind.
\end{proof}
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft alle
Eigenwerte von $A$ sind größer als Null“ nicht von der Wahl der Basis $\mathcal
A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig verwirrt,
weil Sie meinen „Die Eigenwerte einer Matrix hängen doch sowieso nie von der
Wahl der Basis ab.“ Überlegen Sie sich aber, was Sie mit „einer Matrix“ meinen.
Vielleicht denken Sie an den Fall, wo man einen Endomorphismus eines
Vektorraumes hat, eine Basis wählt und dann die Matrix des Endomorphismus
betrachtet. Dann hängen die Eigenwerte tatsächlich nicht von der Wahl der Basis
ab. Hier machen wir aber etwas ganz Anderes: wir betrachten nicht die Matrix
eines Endomorphismus, sondern die Matrix einer Form.}. Der folgende Satz
verallgemeinert diese Beobachtung: auch wenn $s$ nicht unbedingt positiv definit
ist, hängt die Wahl der positiven/negativen Eigenwerte nicht von der Wahl der
Basis ab. Der Satz~\ref{satz:11-0-5} heißt „Trägheitssatz“, weil er in der
klassischen Mechanik, wo es um die Bewegung massebehafteter (=träger) starrer
Körper geht, eine besondere Rolle spielt. Ich komme im folgenden Kapitel noch
einmal auf diesen Punkt zurück.
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5}
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Weiter seien
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden
Matrizen $A_{} = \Mat_{\mathcal{A}_{}}(s)$. Dann gilt folgendes.
\begin{satz}[Trägheitssatz von
Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James
Joseph Sylvester} (* 3.~September 1814 in London; † 15.~März 1897 in London)
war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum
Studium in Cambridge zugelassen wurde.}]\label{satz:11-0-5} Es sei $V$ ein
endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und es sei $s: V
V → k$ eine symmetrische oder Hermitesche Form. Weiter seien $\mathcal{A}_1,
\mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden Matrizen $A_• =
\Mat_{\mathcal{A}_}(s)$. Dann gilt Folgendes.
\begin{enumerate}
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
@ -113,16 +117,16 @@ komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
\begin{defn}[Index und Signatur]\label{def:11-0-5}
\begin{defn}[Index und Signatur]\label{def:11-0-5}%
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=$ oder über $k=$ und
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index
einer Form} bezeichnet. Die Differenz
es sei $s: V V → k$ eine symmetrische oder Hermitesche Form. Die Anzahl der
positiven Eigenwerte wird als \emph{Index von $s$}\index{Index einer Form}
bezeichnet. Die Differenz
\[
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
\]
wird die \emph{Signatur von $s$}\index{Signatur einer
Form} genannt. Der Untervektorraum
wird die \emph{Signatur von $s$}\index{Signatur einer Form} genannt. Der
Untervektorraum
\[
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
\vec{w} ∈ V \} ⊆ V
@ -164,14 +168,14 @@ Matrix positive definit ist.
\end{pmatrix}
\Mat(m m, k).
\]
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
Dann gilt: Die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
gilt, dass $\det A_m > 0$ ist.
\end{satz}
\begin{proof}
Der Beweis involviert ein wenig unangenehme Rechnerei. Sie finden einen
Beweis, den ich selbst auch nicht besser bringen könnte, auf Seite 9 des
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skriptes
von Kollegen Klaus Hulek aus Hannover}.
von Kollegen Klaus Hulek aus Hannover}.
\end{proof}
Sie finden im Internet viele gute Erklärvideos zur Anwendung des
@ -182,11 +186,11 @@ Hurwitz-Kriteriums. Zum Beispiel
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist''
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich
das richtig machen?
mithilfe eines Gegenbeispiels, dass die Aussage „die Matrix $A$ ist genau dann
negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist“ einfach
nicht stimmt. Bonusfrage: Natürlich kann man das Hurwitz-Kriterium verwenden,
um eine Matrix auf negative Definitheit zu testen. Wie muss ich das richtig
machen?
\end{bemerkung}
% !TEX root = LineareAlgebra2