Working
This commit is contained in:
parent
639481f8c0
commit
3f631e4eaf
4
.vscode/ltex.dictionary.de-DE.txt
vendored
4
.vscode/ltex.dictionary.de-DE.txt
vendored
@ -84,3 +84,7 @@ Stryker
|
||||
Gallup-Test
|
||||
OCEAN-Modell
|
||||
PCA
|
||||
massebehafteter
|
||||
Sylvester
|
||||
Hurwitz-Kriteriums
|
||||
Hurwitz-Kriterium
|
||||
|
1
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
1
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -56,3 +56,4 @@
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWie kommt man auf die Zahl „fünf“?.\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q… und weiter?.\\E$"}
|
||||
{"rule":"GERMAN_WORD_REPEAT_BEGINNING_RULE","sentence":"^\\QDie Skalare \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q sind alle reell.\\E$"}
|
||||
|
2
.vscode/ltex.hiddenFalsePositives.en-US.txt
vendored
Normal file
2
.vscode/ltex.hiddenFalsePositives.en-US.txt
vendored
Normal file
@ -0,0 +1,2 @@
|
||||
{"rule":"ADMIT_ENJOY_VB","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
|
||||
{"rule":"MORFOLOGIK_RULE_EN_US","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
|
@ -4,21 +4,21 @@
|
||||
\chapter{Hauptachsentransformation}
|
||||
|
||||
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
|
||||
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um
|
||||
Kapitel „Euklidische und Hermitesche Vektorräume“, denn hier geht es nicht um
|
||||
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
|
||||
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
|
||||
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
|
||||
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
|
||||
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den
|
||||
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich
|
||||
immer in besonders einfache Gestalt bringen!
|
||||
„fast“. Durch eine geeignete Abwandlung der Methode erhalten wir den folgenden
|
||||
Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich immer in
|
||||
besonders einfache Gestalt bringen!
|
||||
|
||||
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}
|
||||
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}%
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
|
||||
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
|
||||
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so
|
||||
dass Folgendes gilt.
|
||||
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, sodass
|
||||
Folgendes gilt.
|
||||
\begin{enumerate}
|
||||
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
|
||||
\[
|
||||
@ -27,7 +27,7 @@ immer in besonders einfache Gestalt bringen!
|
||||
λ_1 && 0\\
|
||||
&\ddots\\
|
||||
0 && λ_n
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
|
||||
\item Die Koordinatenwechselmatrix
|
||||
@ -42,20 +42,20 @@ immer in besonders einfache Gestalt bringen!
|
||||
\end{proof}
|
||||
|
||||
\begin{notation}[Hauptachsen und Hauptachsentransformation]
|
||||
In der Situation von Satz~\ref{satz:11-0-1} schreibe
|
||||
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den
|
||||
Vektoren $\vec{v}_{•}$ aufgespannten 1-dimensionalen Untervektorräume
|
||||
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von
|
||||
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
|
||||
In der Situation von Satz \ref{satz:11-0-1} schreibe $\mathcal B = \{
|
||||
\vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den Vektoren $\vec{v}_•$
|
||||
aufgespannten 1-dimensionalen Untervektorräume von $V$ die
|
||||
\emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von der Basis
|
||||
$\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
|
||||
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
|
||||
\end{notation}
|
||||
|
||||
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
|
||||
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein
|
||||
haben viele Anwendungen. Wir stellen hier lediglich fest, dass der Satz ein
|
||||
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
|
||||
ist.
|
||||
|
||||
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}
|
||||
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}%
|
||||
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
|
||||
\begin{enumerate}
|
||||
\item Die Form $s$ ist positiv definit.
|
||||
@ -63,40 +63,44 @@ ist.
|
||||
\end{enumerate}
|
||||
\end{kor}
|
||||
|
||||
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil
|
||||
Die Aussage „Alle Eigenwerte von $A$ sind größer als Null“ ist sinnvoll, weil
|
||||
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
|
||||
sind.
|
||||
|
||||
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
|
||||
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass
|
||||
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie
|
||||
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $ℝ^n$
|
||||
bzw. $ℂ^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$
|
||||
größer als Null sind.
|
||||
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass $B =
|
||||
\Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie $A$
|
||||
hat. Es ist aber klar, dass die durch $B$ definierte Form auf $ℝ^n$ bzw.
|
||||
$ℂ^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$ größer
|
||||
als Null sind.
|
||||
\end{proof}
|
||||
|
||||
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle
|
||||
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis
|
||||
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig
|
||||
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso
|
||||
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer
|
||||
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen
|
||||
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix
|
||||
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht
|
||||
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir
|
||||
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer
|
||||
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$
|
||||
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen
|
||||
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt
|
||||
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung
|
||||
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich
|
||||
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
|
||||
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft „alle
|
||||
Eigenwerte von $A$ sind größer als Null“ nicht von der Wahl der Basis $\mathcal
|
||||
A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig verwirrt,
|
||||
weil Sie meinen „Die Eigenwerte einer Matrix hängen doch sowieso nie von der
|
||||
Wahl der Basis ab.“ Überlegen Sie sich aber, was Sie mit „einer Matrix“ meinen.
|
||||
Vielleicht denken Sie an den Fall, wo man einen Endomorphismus eines
|
||||
Vektorraumes hat, eine Basis wählt und dann die Matrix des Endomorphismus
|
||||
betrachtet. Dann hängen die Eigenwerte tatsächlich nicht von der Wahl der Basis
|
||||
ab. Hier machen wir aber etwas ganz Anderes: wir betrachten nicht die Matrix
|
||||
eines Endomorphismus, sondern die Matrix einer Form.}. Der folgende Satz
|
||||
verallgemeinert diese Beobachtung: auch wenn $s$ nicht unbedingt positiv definit
|
||||
ist, hängt die Wahl der positiven/negativen Eigenwerte nicht von der Wahl der
|
||||
Basis ab. Der Satz~\ref{satz:11-0-5} heißt „Trägheitssatz“, weil er in der
|
||||
klassischen Mechanik, wo es um die Bewegung massebehafteter (=träger) starrer
|
||||
Körper geht, eine besondere Rolle spielt. Ich komme im folgenden Kapitel noch
|
||||
einmal auf diesen Punkt zurück.
|
||||
|
||||
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5}
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter seien
|
||||
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden
|
||||
Matrizen $A_{•} = \Mat_{\mathcal{A}_{•}}(s)$. Dann gilt folgendes.
|
||||
\begin{satz}[Trägheitssatz von
|
||||
Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James
|
||||
Joseph Sylvester} (* 3.~September 1814 in London; † 15.~März 1897 in London)
|
||||
war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum
|
||||
Studium in Cambridge zugelassen wurde.}]\label{satz:11-0-5} Es sei $V$ ein
|
||||
endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und es sei $s: V ⨯
|
||||
V → k$ eine symmetrische oder Hermitesche Form. Weiter seien $\mathcal{A}_1,
|
||||
\mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden Matrizen $A_• =
|
||||
\Mat_{\mathcal{A}_•}(s)$. Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
|
||||
|
||||
@ -113,16 +117,16 @@ komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
|
||||
|
||||
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
|
||||
|
||||
\begin{defn}[Index und Signatur]\label{def:11-0-5}
|
||||
\begin{defn}[Index und Signatur]\label{def:11-0-5}%
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man
|
||||
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index
|
||||
einer Form} bezeichnet. Die Differenz
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Die Anzahl der
|
||||
positiven Eigenwerte wird als \emph{Index von $s$}\index{Index einer Form}
|
||||
bezeichnet. Die Differenz
|
||||
\[
|
||||
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
|
||||
\]
|
||||
wird die \emph{Signatur von $s$}\index{Signatur einer
|
||||
Form} genannt. Der Untervektorraum
|
||||
wird die \emph{Signatur von $s$}\index{Signatur einer Form} genannt. Der
|
||||
Untervektorraum
|
||||
\[
|
||||
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
|
||||
\vec{w} ∈ V \} ⊆ V
|
||||
@ -164,14 +168,14 @@ Matrix positive definit ist.
|
||||
\end{pmatrix}
|
||||
∈ \Mat(m⨯ m, k).
|
||||
\]
|
||||
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
|
||||
Dann gilt: Die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
|
||||
gilt, dass $\det A_m > 0$ ist.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
Der Beweis involviert ein wenig unangenehme Rechnerei. Sie finden einen
|
||||
Beweis, den ich selbst auch nicht besser bringen könnte, auf Seite 9 des
|
||||
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skriptes
|
||||
von Kollegen Klaus Hulek aus Hannover}.
|
||||
von Kollegen Klaus Hulek aus Hannover}.
|
||||
\end{proof}
|
||||
|
||||
Sie finden im Internet viele gute Erklärvideos zur Anwendung des
|
||||
@ -182,11 +186,11 @@ Hurwitz-Kriteriums. Zum Beispiel
|
||||
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
|
||||
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
|
||||
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
|
||||
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau
|
||||
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist''
|
||||
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium
|
||||
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich
|
||||
das richtig machen?
|
||||
mithilfe eines Gegenbeispiels, dass die Aussage „die Matrix $A$ ist genau dann
|
||||
negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist“ einfach
|
||||
nicht stimmt. Bonusfrage: Natürlich kann man das Hurwitz-Kriterium verwenden,
|
||||
um eine Matrix auf negative Definitheit zu testen. Wie muss ich das richtig
|
||||
machen?
|
||||
\end{bemerkung}
|
||||
|
||||
% !TEX root = LineareAlgebra2
|
||||
|
Loading…
x
Reference in New Issue
Block a user