Compare commits
2 Commits
37b91c5e02
...
3f631e4eaf
Author | SHA1 | Date | |
---|---|---|---|
![]() |
3f631e4eaf | ||
![]() |
639481f8c0 |
28
.vscode/ltex.dictionary.de-DE.txt
vendored
28
.vscode/ltex.dictionary.de-DE.txt
vendored
@ -60,3 +60,31 @@ Determinanten-Multiplikationssatz
|
||||
Komplexifizierung
|
||||
komplexifizierten
|
||||
komplexifizierte
|
||||
Quadriken
|
||||
Quadrik
|
||||
Grund-Quadriken
|
||||
Vereinfachungsschritten
|
||||
Koniken
|
||||
Perge
|
||||
Hyperbelbahnen
|
||||
Konik
|
||||
Auxerre
|
||||
Loviscach
|
||||
psycho-akustisches
|
||||
SciKit
|
||||
Funktionalgleichung
|
||||
Schönhage-Strassen-Algorithmus
|
||||
Schönhage
|
||||
Strassen
|
||||
Thurstone
|
||||
Allport
|
||||
Odbert
|
||||
kulturstabile
|
||||
Stryker
|
||||
Gallup-Test
|
||||
OCEAN-Modell
|
||||
PCA
|
||||
massebehafteter
|
||||
Sylvester
|
||||
Hurwitz-Kriteriums
|
||||
Hurwitz-Kriterium
|
||||
|
1
.vscode/ltex.disabledRules.de-DE.txt
vendored
1
.vscode/ltex.disabledRules.de-DE.txt
vendored
@ -1 +1,2 @@
|
||||
KARDINALZAHLEN
|
||||
DE_COMPOUND_COHERENCY
|
||||
|
3
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
3
.vscode/ltex.hiddenFalsePositives.de-DE.txt
vendored
@ -54,3 +54,6 @@
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qder von \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q stabilisiert wird“.\\E$"}
|
||||
{"rule":"GERMAN_SPELLER_RULE","sentence":"^\\QRechnen Sie nach, dass für alle \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q die Gleichung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QProd.\\E$"}
|
||||
{"rule":"UPPERCASE_SENTENCE_START","sentence":"^\\Qin \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\QStandardskalarprodukt Folgern Sie mithilfe von Beispiel \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q messerscharf, dass die Abbildung \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q genau dann selbstadjungiert ist, wenn \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q eine symmetrische oder Hermitesche Matrix ist.\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\QWie kommt man auf die Zahl „fünf“?.\\E$"}
|
||||
{"rule":"DOPPELTE_SATZZEICHEN","sentence":"^\\Q… und weiter?.\\E$"}
|
||||
{"rule":"GERMAN_WORD_REPEAT_BEGINNING_RULE","sentence":"^\\QDie Skalare \\E(?:Dummy|Ina|Jimmy-)[0-9]+\\Q sind alle reell.\\E$"}
|
||||
|
2
.vscode/ltex.hiddenFalsePositives.en-US.txt
vendored
Normal file
2
.vscode/ltex.hiddenFalsePositives.en-US.txt
vendored
Normal file
@ -0,0 +1,2 @@
|
||||
{"rule":"ADMIT_ENJOY_VB","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
|
||||
{"rule":"MORFOLOGIK_RULE_EN_US","sentence":"^\\QConverting risks to be represented as those to factor loadings (or multipliers) provides assessments and understanding beyond that available to simply collectively viewing risks to individual 30-500 buckets.\\E$"}
|
@ -4,21 +4,21 @@
|
||||
\chapter{Hauptachsentransformation}
|
||||
|
||||
\sideremark{Vorlesung 16}Dieser Abschnitt passt eigentlich gar nicht in das
|
||||
Kapitel ``Euklidische und Hermitesche Vektorräume'', denn hier geht es nicht um
|
||||
Kapitel „Euklidische und Hermitesche Vektorräume“, denn hier geht es nicht um
|
||||
reelle oder komplexe Vektorräume mit Skalarprodukt, sondern um reelle oder
|
||||
komplexe Vektorräume mit Skalarprodukt mit einer beliebigen symmetrischen oder
|
||||
Hermiteschen Form, die nicht notwendigerweise ein Skalarprodukt ist.
|
||||
Funktioniert die Methode von Gram-Schmidt dann immer noch? Die Antwort ist:
|
||||
``fast''. Durch eine geeignete Abwandlung der Methode erhalten wir den
|
||||
folgenden Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich
|
||||
immer in besonders einfache Gestalt bringen!
|
||||
„fast“. Durch eine geeignete Abwandlung der Methode erhalten wir den folgenden
|
||||
Satz: die Matrix einer symmetrischen oder Hermiteschen Form lässt sich immer in
|
||||
besonders einfache Gestalt bringen!
|
||||
|
||||
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}
|
||||
\begin{satz}[Satz über die Hauptachsentransformation]\label{satz:11-0-1}%
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter sei
|
||||
$\mathcal{A}$ eine angeordnete Basis von $V$ und $A = \Mat_{\mathcal{A}}(s)$
|
||||
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, so
|
||||
dass Folgendes gilt.
|
||||
die zugehörende Matrix. Dann gibt es eine Basis $\mathcal{B} ⊂ V$, sodass
|
||||
Folgendes gilt.
|
||||
\begin{enumerate}
|
||||
\item Die Matrix $B := \Mat_{\mathcal{B}}(s)$ ist diagonal,
|
||||
\[
|
||||
@ -27,7 +27,7 @@ immer in besonders einfache Gestalt bringen!
|
||||
λ_1 && 0\\
|
||||
&\ddots\\
|
||||
0 && λ_n
|
||||
\end{pmatrix}
|
||||
\end{pmatrix}.
|
||||
\]
|
||||
|
||||
\item Die Koordinatenwechselmatrix
|
||||
@ -42,20 +42,20 @@ immer in besonders einfache Gestalt bringen!
|
||||
\end{proof}
|
||||
|
||||
\begin{notation}[Hauptachsen und Hauptachsentransformation]
|
||||
In der Situation von Satz~\ref{satz:11-0-1} schreibe
|
||||
$\mathcal B = \{ \vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den
|
||||
Vektoren $\vec{v}_{•}$ aufgespannten 1-dimensionalen Untervektorräume
|
||||
von $V$ die \emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von
|
||||
der Basis $\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
|
||||
In der Situation von Satz \ref{satz:11-0-1} schreibe $\mathcal B = \{
|
||||
\vec{v}_1, …, \vec{v}_n\}$. Dann nennt man die von den Vektoren $\vec{v}_•$
|
||||
aufgespannten 1-dimensionalen Untervektorräume von $V$ die
|
||||
\emph{Hauptachsen}\index{Hauptachsen} von $s$. Den Wechsel von der Basis
|
||||
$\mathcal{A}$ zur Basis $\mathcal{B}$ bezeichnet man als
|
||||
\emph{Hauptachsentransformation}\index{Hauptachsentransformation}.
|
||||
\end{notation}
|
||||
|
||||
Der Satz über die Hauptachsentransformation und sein (konstruktiver!) Beweis
|
||||
haben viele Anwendungen. Wir stellen hier lediglich fest, dass das Satz ein
|
||||
haben viele Anwendungen. Wir stellen hier lediglich fest, dass der Satz ein
|
||||
sehr bequemes Kriterium dafür liefert, dass eine gegebene Form positiv definit
|
||||
ist.
|
||||
|
||||
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}
|
||||
\begin{kor}[Kriterium für positive Definitheit]\label{cor:11-0-3}%
|
||||
In der Situation von Satz~\ref{satz:11-0-1} sind folgende Aussagen äquivalent.
|
||||
\begin{enumerate}
|
||||
\item Die Form $s$ ist positiv definit.
|
||||
@ -63,40 +63,44 @@ ist.
|
||||
\end{enumerate}
|
||||
\end{kor}
|
||||
|
||||
Die Aussage ``Alle Eigenwerte von $A$ sind größer als Null'' ist sinnvoll, weil
|
||||
Die Aussage „Alle Eigenwerte von $A$ sind größer als Null“ ist sinnvoll, weil
|
||||
wir nach Satz~\ref{satz:11-0-1} ja schon wissen, dass alle Eigenwerte reell
|
||||
sind.
|
||||
|
||||
\begin{proof}[Beweis von Korollar~\ref{cor:11-0-3}]
|
||||
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass
|
||||
$B = \Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie
|
||||
$A$ hat. Es ist aber klar, dass die durch $B$ definierte Form auf $ℝ^n$
|
||||
bzw. $ℂ^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$
|
||||
größer als Null sind.
|
||||
Wir wissen bereits, dass eine Basis $\mathcal{B}$ existiert, sodass $B =
|
||||
\Mat_{\mathcal{B}}(s)$ diagonal ist und dieselben Eigenwerte $λ_i$ wie $A$
|
||||
hat. Es ist aber klar, dass die durch $B$ definierte Form auf $ℝ^n$ bzw.
|
||||
$ℂ^n$ positiv definit ist genau dann, wenn alle diese Eigenwerte $λ_i$ größer
|
||||
als Null sind.
|
||||
\end{proof}
|
||||
|
||||
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft ``alle
|
||||
Eigenwerte von $A$ sind größer als Null'' nicht von der Wahl der Basis
|
||||
$\mathcal A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig
|
||||
verwirrt, weil Sie meinen ``Die Eigenwerte einer Matrix hängen doch sowieso
|
||||
nie von der Wahl der Basis ab.'' Überlegen Sie sich aber, was Sie mit ``einer
|
||||
Matrix'' meinen. Vielleicht denken Sie an den Fall, wo man einen
|
||||
Endomorphismus eines Vektorraumes hat, eine Basis wählt und dann die Matrix
|
||||
des Endomorphismus betrachtet. Dann hängen die Eigenwerte tatsächlich nicht
|
||||
von der Wahl der Basis ab. Hier machen wir aber etwas ganz Anderes: wir
|
||||
betrachten nicht die Matrix eines Endomorphismus, sondern die Matrix einer
|
||||
Form.}. Der folgende Satz verallgemeinert diese Beobachtung: auch wenn $s$
|
||||
nicht unbedingt positiv definit ist, hängt die Wahl der positiven/negativen
|
||||
Eigenwerte nicht von der Wahl der Basis ab. Der Satz~\ref{satz:11-0-5} heißt
|
||||
``Trägheitssatz'', weil er in der klassischen Mechanik, wo es um die Bewegung
|
||||
massebehafteter (=träger) starrer Körper geht, eine besondere Rolle spielt. Ich
|
||||
komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
|
||||
Korollar~\ref{cor:11-0-3} sagt insbesondere, dass die Eigenschaft „alle
|
||||
Eigenwerte von $A$ sind größer als Null“ nicht von der Wahl der Basis $\mathcal
|
||||
A$ abhängt\footnote{Vielleicht sind Sie an dieser Stelle ein wenig verwirrt,
|
||||
weil Sie meinen „Die Eigenwerte einer Matrix hängen doch sowieso nie von der
|
||||
Wahl der Basis ab.“ Überlegen Sie sich aber, was Sie mit „einer Matrix“ meinen.
|
||||
Vielleicht denken Sie an den Fall, wo man einen Endomorphismus eines
|
||||
Vektorraumes hat, eine Basis wählt und dann die Matrix des Endomorphismus
|
||||
betrachtet. Dann hängen die Eigenwerte tatsächlich nicht von der Wahl der Basis
|
||||
ab. Hier machen wir aber etwas ganz Anderes: wir betrachten nicht die Matrix
|
||||
eines Endomorphismus, sondern die Matrix einer Form.}. Der folgende Satz
|
||||
verallgemeinert diese Beobachtung: auch wenn $s$ nicht unbedingt positiv definit
|
||||
ist, hängt die Wahl der positiven/negativen Eigenwerte nicht von der Wahl der
|
||||
Basis ab. Der Satz~\ref{satz:11-0-5} heißt „Trägheitssatz“, weil er in der
|
||||
klassischen Mechanik, wo es um die Bewegung massebehafteter (=träger) starrer
|
||||
Körper geht, eine besondere Rolle spielt. Ich komme im folgenden Kapitel noch
|
||||
einmal auf diesen Punkt zurück.
|
||||
|
||||
\begin{satz}[Trägheitssatz von Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James Joseph Sylvester} (* 3. September 1814 in London; † 15. März 1897 in Londen) war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum Studium in Cambridge zugelassen wurde. }]\label{satz:11-0-5}
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Weiter seien
|
||||
$\mathcal{A}_1, \mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden
|
||||
Matrizen $A_{•} = \Mat_{\mathcal{A}_{•}}(s)$. Dann gilt folgendes.
|
||||
\begin{satz}[Trägheitssatz von
|
||||
Sylvester\footnote{\href{https://de.wikipedia.org/wiki/James_Joseph_Sylvester}{James
|
||||
Joseph Sylvester} (* 3.~September 1814 in London; † 15.~März 1897 in London)
|
||||
war ein britischer Mathematiker. Er war der erste gläubige Jude, der zum
|
||||
Studium in Cambridge zugelassen wurde.}]\label{satz:11-0-5} Es sei $V$ ein
|
||||
endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und es sei $s: V ⨯
|
||||
V → k$ eine symmetrische oder Hermitesche Form. Weiter seien $\mathcal{A}_1,
|
||||
\mathcal{A}_2 ⊂ V$ zwei angeordnete Basen mit zugehörenden Matrizen $A_• =
|
||||
\Mat_{\mathcal{A}_•}(s)$. Dann gilt Folgendes.
|
||||
\begin{enumerate}
|
||||
\item Die Anzahlen der positiven Eigenwerte von $A_1$ und $A_2$ sind gleich.
|
||||
|
||||
@ -113,16 +117,16 @@ komme im folgenden Kapitel noch einmal auf diesen Punkt zurück.
|
||||
|
||||
Der Trägheitssatz von Sylvester stellt sicher, dass folgende Definition sinnvoll ist.
|
||||
|
||||
\begin{defn}[Index und Signatur]\label{def:11-0-5}
|
||||
\begin{defn}[Index und Signatur]\label{def:11-0-5}%
|
||||
Es sei $V$ ein endlich-dimensionaler Vektorraum über $k=ℝ$ oder über $k=ℂ$ und
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Dann nennt man
|
||||
wird die Anzahl der positiver Eigenwerte als \emph{Index von $s$}\index{Index
|
||||
einer Form} bezeichnet. Die Differenz
|
||||
es sei $s: V ⨯ V → k$ eine symmetrische oder Hermitesche Form. Die Anzahl der
|
||||
positiven Eigenwerte wird als \emph{Index von $s$}\index{Index einer Form}
|
||||
bezeichnet. Die Differenz
|
||||
\[
|
||||
\text{Anzahl positiver Eigenwerte - Anzahl negativer Eigenwerte}
|
||||
\]
|
||||
wird die \emph{Signatur von $s$}\index{Signatur einer
|
||||
Form} genannt. Der Untervektorraum
|
||||
wird die \emph{Signatur von $s$}\index{Signatur einer Form} genannt. Der
|
||||
Untervektorraum
|
||||
\[
|
||||
V⁰_s := \{ \vec{v} ∈ V \:|\: s(\vec{v}, \vec{w}) = 0 \text{ für alle }
|
||||
\vec{w} ∈ V \} ⊆ V
|
||||
@ -164,14 +168,14 @@ Matrix positive definit ist.
|
||||
\end{pmatrix}
|
||||
∈ \Mat(m⨯ m, k).
|
||||
\]
|
||||
Dann gilt: die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
|
||||
Dann gilt: Die Matrix $A$ ist genau dann positiv definit, wenn für alle $m$
|
||||
gilt, dass $\det A_m > 0$ ist.
|
||||
\end{satz}
|
||||
\begin{proof}
|
||||
Der Beweis involviert ein wenig unangenehme Rechnerei. Sie finden einen
|
||||
Beweis, den ich selbst auch nicht besser bringen könnte, auf Seite 9 des
|
||||
\href{http://www.blu7.com/Skripte/Lineare_Algebra_II_SS02_Skript.pdf}{Skriptes
|
||||
von Kollegen Klaus Hulek aus Hannover}.
|
||||
von Kollegen Klaus Hulek aus Hannover}.
|
||||
\end{proof}
|
||||
|
||||
Sie finden im Internet viele gute Erklärvideos zur Anwendung des
|
||||
@ -182,11 +186,11 @@ Hurwitz-Kriteriums. Zum Beispiel
|
||||
In Klausuren und mündlichen Prüfungen sehe ich immer wieder Studenten, die das
|
||||
Hurwitz-Kriterium falsch anwenden, wenn gezeigt werden soll, dass eine Matrix
|
||||
\emph{negativ} definit ist. Setzten Sie sich \emph{sofort} hin und zeigen Sie
|
||||
mit Hilfe eines Gegenbeispiels, dass die Aussage ``die Matrix $A$ ist genau
|
||||
dann negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist''
|
||||
einfach nicht stimmt. Bonusfrage: natürlich kann man das Hurwitz-Kriterium
|
||||
verwenden, um eine Matrix auf negative Definitheit zu testen. Wie muss ich
|
||||
das richtig machen?
|
||||
mithilfe eines Gegenbeispiels, dass die Aussage „die Matrix $A$ ist genau dann
|
||||
negativ definit, wenn für alle $m$ gilt, dass $\det A_m < 0$ ist“ einfach
|
||||
nicht stimmt. Bonusfrage: Natürlich kann man das Hurwitz-Kriterium verwenden,
|
||||
um eine Matrix auf negative Definitheit zu testen. Wie muss ich das richtig
|
||||
machen?
|
||||
\end{bemerkung}
|
||||
|
||||
% !TEX root = LineareAlgebra2
|
||||
|
@ -4,14 +4,14 @@
|
||||
\chapter{Anwendungen}
|
||||
|
||||
\sideremark{Vorlesung 17}Haben Sie schon einmal nachts wach im Bett gelegen,
|
||||
weil Sie unbedingt eine symmetrische Matrix mit Hilfe eines orthogonalen
|
||||
weil Sie unbedingt eine symmetrische Matrix mithilfe eines orthogonalen
|
||||
Basiswechsels diagonalisieren wollten? Drängt es Sie, die Koeffizienten von
|
||||
Linearkombinationen mit Hilfe von Skalarprodukten auszurechnen?
|
||||
Linearkombinationen mithilfe von Skalarprodukten auszurechnen?
|
||||
|
||||
Die Begriffe und Methoden des laufenden Kapitels über ``Euklidische und
|
||||
Hermitesche Vektorräume'' haben enorm viele Anwendungen. Tatsächlich handelt es
|
||||
sich bei vielen der heißen Themen zu ``Machine Learning'', ``Collective
|
||||
Intelligence'' oder ``Artificial Intelligence'' um relativ einfache Methoden der
|
||||
Die Begriffe und Methoden des laufenden Kapitels über „Euklidische und
|
||||
Hermitesche Vektorräume“ haben enorm viele Anwendungen. Tatsächlich handelt es
|
||||
sich bei vielen der heißen Themen zu „Machine Learning“, „Collective
|
||||
Intelligence“ oder „Artificial Intelligence“ um relativ einfache Methoden der
|
||||
linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können --
|
||||
schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine
|
||||
unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen
|
||||
@ -26,11 +26,11 @@ machen, können aber nicht sinnvoll geprüft werden.
|
||||
|
||||
\section{Reelle Quadriken}
|
||||
|
||||
Die erste ``Anwendung'' ist immer noch ziemlich theoretisch und stammt
|
||||
mindestens aus der hellenistischen Antike, also etwa der Zeit Alexander des
|
||||
Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
|
||||
Die erste „Anwendung“ ist immer noch ziemlich theoretisch und stammt mindestens
|
||||
aus der hellenistischen Antike, also etwa der Zeit Alexander des Großen.
|
||||
Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
|
||||
\href{https://www.ams.org/notices/200809/tx080901076p.pdf}{wo Mathematik eine
|
||||
große Rolle spielte}. Es geht um folgende Situation.
|
||||
große Rolle spielte}. Es geht um folgende Situation.
|
||||
|
||||
\begin{situation}[Quadrik im $ℝ^n$]\label{sit:12-1-1}
|
||||
Gegeben sei der $ℝ^n$ mit Koordinatenfunktionen $x_1, …, x_n$ und ein
|
||||
@ -50,15 +50,15 @@ Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt
|
||||
|
||||
Wir stellen in diesem Kapitel die Frage, was wir über die Geometrie von reellen
|
||||
Quadriken sagen können. Es ist klar, dass das Bild einer Quadrik unter einer
|
||||
lineare Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
|
||||
linearen Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
|
||||
genauer: Wie sieht $Q$ aus nach geeigneter Wahl von Koordinaten und nach
|
||||
Translationen? Wir formulieren die Frage präziser und führen die folgende
|
||||
Notation ein.
|
||||
|
||||
\begin{defn}[Affine Abbildung]\label{def:12-1-3}
|
||||
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung
|
||||
$Φ : V → W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
|
||||
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, so dass für alle
|
||||
\begin{defn}[Affine Abbildung]\label{def:12-1-3}%
|
||||
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung $Φ : V
|
||||
→ W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
|
||||
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, sodass für alle
|
||||
$\vec{v} ∈ V$ die Gleichung $Φ(\vec{v}) = φ(\vec{v}) + \vec{w}$ gilt.
|
||||
\end{defn}
|
||||
|
||||
@ -73,24 +73,24 @@ Damit können wir unsere Frage präzise formulieren.
|
||||
|
||||
\begin{frage}
|
||||
Gegeben sei Situation~\ref{sit:12-1-1}. Gibt es dann eine bijektive, affine
|
||||
Abbildung $Φ : ℝ^n → ℝ^n$, so dass das Bild von $Q$ unter der
|
||||
Abbildung $Φ$ eine Quadrik von besonders einfacher Gestalt ist? Gibt es
|
||||
eine (kleine) Mengen von ``Grund-Quadriken'' aus denen alle anderen durch
|
||||
affine Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
|
||||
Abbildung $Φ : ℝ^n → ℝ^n$, sodass das Bild von $Q$ unter der Abbildung $Φ$
|
||||
eine Quadrik von besonders einfacher Gestalt ist? Gibt es eine (kleine)
|
||||
Mengen von „Grund-Quadriken“ aus denen alle anderen durch affine
|
||||
Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
|
||||
Verschiebung, …) entstehen?
|
||||
\end{frage}
|
||||
|
||||
|
||||
Die Antwort ist natürlich ``ja'', aber Sie haben ja zum Glück noch nicht weiter
|
||||
Die Antwort ist natürlich „ja“, aber Sie haben ja zum Glück noch nicht weiter
|
||||
nach vorn geblättert. Sie kennen ähnliche Fragen aus der Schule. Bei der
|
||||
Diskussion der Kongruenz von Dreiecken betrachtet man Dreiecke statt Quadriken
|
||||
und abstandserhaltende Abbildungen statt affiner Abbildungen.
|
||||
|
||||
|
||||
\subsection{Vereinfachung von Quadratischen Gleichungen}
|
||||
\subsection{Vereinfachung von quadratischen Gleichungen}
|
||||
|
||||
Wir bleibe in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
|
||||
bijektiven, affinen Abbildungen finden, so dass die Gleichung (der Bilder von)
|
||||
Wir bleiben in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
|
||||
bijektiven, affinen Abbildungen finden, sodass die Gleichung (der Bilder von)
|
||||
$Q$ immer einfacher wird. Wie immer gibt es viel Material im Internet; ein
|
||||
Student wies mich auf
|
||||
\href{https://www.youtube.com/watch?v=wYJAggfstyI}{folgendes Video} hin.
|
||||
@ -125,15 +125,15 @@ Witz ist aber, dass wir die symmetrische Matrix $A$ diagonalisieren können!
|
||||
|
||||
\subsubsection{Schritt 2: Eliminierung der gemischten Terme}
|
||||
|
||||
Wir wissen: es existiert eine orthogonale $n⨯n$-Matrix $W$, so dass die
|
||||
Wir wissen: es existiert eine orthogonale $n⨯n$-Matrix $W$, sodass die
|
||||
Produktmatrix $W^t·A·W$ diagonal ist. Es sei $Q^{(1)}$ das Bild von $Q$ unter
|
||||
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt
|
||||
für alle $\vec{x} ∈ ℝ^n$:
|
||||
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt für
|
||||
alle $\vec{x} ∈ ℝ^n$:
|
||||
\begin{align*}
|
||||
\vec{x} ∈ Q^{(1)} & ⇔ W·\vec{x} ∈ Q \\
|
||||
& ⇔ f(W·\vec{x}) = 0 \\
|
||||
& ⇔ (W·\vec{x})^t·A·(W·\vec{x}) + 2 \vec{b} · (W·\vec{x}) + f_0 = 0 \\
|
||||
& ⇔ \vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0
|
||||
& ⇔ \vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0.
|
||||
\end{align*}
|
||||
Wir erkennen zum einen, dass die Bildmenge $Q^{(1)}$ wieder eine Quadrik ist.
|
||||
Die Gleichung $f^{(1)}$ der Quadrik $Q^{(1)}$ ist besonders einfach, weil es
|
||||
@ -169,8 +169,9 @@ gilt für alle $\vec{x} ∈ ℝ^n$:
|
||||
\vec{x} ∈ Q^{(2)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(1)} \\
|
||||
& ⇔ \sum_{i=1}^r
|
||||
a^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i}
|
||||
\right)² + 2 · \sum_{i=1}^r b^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right) + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
|
||||
& ⇔ \sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0
|
||||
\right)² + 2 · \sum_{i=1}^r b^{(1)}_i·\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right)\\
|
||||
& \qquad + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
|
||||
& ⇔ \sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0.
|
||||
\end{align*}
|
||||
Die Bildmenge $Q^{(2)}$ ist also wieder eine Quadrik, gegeben durch ein Polynom
|
||||
\[
|
||||
@ -193,7 +194,7 @@ Diese Konstruktion ist nur relevant, falls mindestens eines der $b^{(2)}_i$
|
||||
ungleich Null ist. Falls alle $b^{(2)}_i$ verschwinden, machen wir in diesem
|
||||
Schritt nichts und setzen
|
||||
\[
|
||||
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}
|
||||
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}.
|
||||
\]
|
||||
Ansonsten können wir nach umnummerieren der Variable annehmen, dass
|
||||
$b^{(2)}_{r+1} \ne 0$ ist. Betrachte dann die affine Bijektion
|
||||
@ -213,15 +214,15 @@ gilt für alle $\vec{x} ∈ ℝ^n$:
|
||||
\vec{x} ∈ Q^{(3)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(2)} \\
|
||||
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i + 2·b^{(2)}_{r+1}·X + 2·\sum_{i=r+2}^n b^{(2)}_i·x_i + c^{(2)} = 0 \\
|
||||
& \qquad\qquad\qquad \text{wobei } X = \left(\frac{-c^{(2)}}{2·b^{(2)}_{r+1}} - \frac{1}{b^{(2)}_{r+1}}·x_{r+1} - \sum_{j=r+2}^n \frac{b^{(2)}_j}{b^{(2)}_{r+1}}·x_j \right) \\
|
||||
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0
|
||||
& ⇔ \sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0.
|
||||
\end{align*}
|
||||
In jedem Fall gilt: die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
|
||||
In jedem Fall gilt: Die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
|
||||
gegeben durch ein Polynom
|
||||
\[
|
||||
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)}
|
||||
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_i² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)},
|
||||
\]
|
||||
wobei $b^{(3)}_{r+1} ∈ \{0,-2\}$ und $c^{(3)} ∈ \{0, -1\}$ ist. Weiterhin
|
||||
gilt: $b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
|
||||
wobei $b^{(3)}_{r+1} ∈ \{0,-2\}$ und $c^{(3)} ∈ \{0, -1\}$ ist. Weiterhin gilt:
|
||||
$b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
|
||||
|
||||
|
||||
\subsubsection{Schritt 5: Skalierung}
|
||||
@ -259,10 +260,10 @@ $b^{(4)}_{r+1} \ne 0 ⇒ c^{(4)} = 0$.
|
||||
Insgesamt haben wir mit den oben genannten Vereinfachungsschritten jetzt
|
||||
folgenden Satz bewiesen.
|
||||
|
||||
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}
|
||||
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}%
|
||||
In Situation~\ref{sit:12-1-1} gibt es Zahlen $r$, $k$ gibt es eine bijektive,
|
||||
affine Abbildung $Φ : ℝ^n → ℝ^n$, so dass das Bild von $Q$
|
||||
Nullstellenmenge einer der folgenden Gleichungen ist
|
||||
affine Abbildung $Φ : ℝ^n → ℝ^n$, sodass das Bild von $Q$ Nullstellenmenge
|
||||
einer der folgenden Gleichungen ist
|
||||
\begin{enumerate}
|
||||
\item $x_1² + x_2² + … + x_r² - x_{r+1}² - … - x_k²$
|
||||
|
||||
@ -286,12 +287,11 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
|
||||
|
||||
\begin{kor}[Klassifikation der Koniken des Appollonius von
|
||||
Perge\footnote{\href{https://de.wikipedia.org/wiki/Apollonios_von_Perge}{Appollonius
|
||||
von Perge} (* ca. 265 v. Chr. in Perge; † ca. 190 v. Chr. in Alexandria)
|
||||
war ein antiker griechischer Mathematiker, bekannt für sein Buch über
|
||||
Kegelschnitte.}]
|
||||
Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann gibt es eine
|
||||
bijektive, affine Abbildung $Φ : ℝ^n → ℝ^n$, so dass das Bild von $Q$
|
||||
Nullstellenmenge einer der folgenden Gleichungen ist
|
||||
von Perge} (* ca.~265 v.~Chr.~in Perge; † ca.~190 v.~Chr.~in Alexandria) war
|
||||
ein antiker griechischer Mathematiker, bekannt für sein Buch über
|
||||
Kegelschnitte.}] Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann
|
||||
gibt es eine bijektive, affine Abbildung $Φ : ℝ^n → ℝ^n$, sodass das Bild von
|
||||
$Q$ Nullstellenmenge einer der folgenden Gleichungen ist
|
||||
\begin{enumerate}
|
||||
\item $x² = 0:$ Doppelgerade \label{Q.1}
|
||||
|
||||
@ -444,10 +444,10 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
|
||||
|
||||
\begin{itemize}
|
||||
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
|
||||
im Schwerefeld bewegen. Wir kenne die Wurfparabel, die elliptischen
|
||||
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von die
|
||||
Satelliten beim Vorbeiflug an einem Himmelskörper. Wieso treten hier
|
||||
eigentlich Koniken auf?
|
||||
im Schwerefeld bewegen. Wir kennen die Wurfparabel, die elliptischen
|
||||
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von Satelliten
|
||||
beim Vorbeiflug an einem Himmelskörper. Wieso treten hier eigentlich Koniken
|
||||
auf?
|
||||
|
||||
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
|
||||
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
|
||||
@ -460,7 +460,7 @@ Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
|
||||
|
||||
Schreiben Sie ein Computerprogramm, das für eine gegebene Konik sofort eine
|
||||
vereinfachende affine Transformation liefert. Stellen Sie die Transformation
|
||||
graphisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
|
||||
grafisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
|
||||
zu den Vereinfachungen kommt.
|
||||
|
||||
|
||||
@ -468,21 +468,21 @@ zu den Vereinfachungen kommt.
|
||||
|
||||
\sideremark{Vorlesung 18}Ich erkläre in diesem Abschnitt die
|
||||
Fourier-Transformation\footnote{\href{https://de.wikipedia.org/wiki/Joseph_Fourier}{Jean
|
||||
Baptiste Joseph Fourier} (* 21. März 1768 bei Auxerre; † 16. Mai 1830 in
|
||||
Paris) war ein französischer Mathematiker und Physiker.} und nenne einige
|
||||
Anwendungen. Die Fourier-Transformation ist für die Praxis vielleicht das
|
||||
wichtigste Stück Mathematik überhaupt\footnote{Sie selbst verwenden solche
|
||||
Transformationen ununterbrochen -- haben Sie schon einmal ein Mobiltelefon
|
||||
benutzt? Oder sind Sie vielleicht in einem Auto gefahren? Oder haben Sie einen
|
||||
Klang gehört?}. Manche Kollegen sprechen sogar von der ``fünften
|
||||
Grundrechenart''. Ich komme im Abschnitt~\ref{ssec:Rechen} darauf zurück.
|
||||
Baptiste Joseph Fourier} (* 21.~März 1768 bei Auxerre; † 16.~Mai 1830 in Paris)
|
||||
war ein französischer Mathematiker und Physiker.} und nenne einige Anwendungen.
|
||||
Die Fourier-Transformation ist für die Praxis vielleicht das wichtigste Stück
|
||||
Mathematik überhaupt\footnote{Sie selbst verwenden solche Transformationen
|
||||
ununterbrochen -- haben Sie schon einmal ein Mobiltelefon benutzt? Oder sind
|
||||
Sie vielleicht in einem Auto gefahren? Oder haben Sie einen Klang gehört?}.
|
||||
Manche Kollegen sprechen sogar von der „fünften Grundrechenart“. Ich komme im
|
||||
Abschnitt~\ref{ssec:Rechen} darauf zurück.
|
||||
|
||||
In Internet finden Sie sehr viel Material zum Thema. Ich empfehle dieses
|
||||
\href{https://www.youtube.com/watch?v=vA9dfINW4Rg}{Video vom MIT}. Die
|
||||
Fachhochschule Hamburg hat ebenfalls ein nettes
|
||||
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} (``Warum die
|
||||
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} („Warum die
|
||||
Fourier-Analysis in den Anwendungen so wichtig ist und welche grundlegende Idee
|
||||
dahinter steht''). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
|
||||
dahinter steht“). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
|
||||
ein \href{https://av.tib.eu/media/10335}{Video}, ebenso auch Daniel Jung
|
||||
(\href{https://www.youtube.com/watch?v=mMsa1uBHd9k}{$→$Link}). Wenn Sie ein
|
||||
wenig im Internet suchen, finden Sie noch sehr viel mehr Material.
|
||||
@ -495,9 +495,9 @@ betrachte den der Vektorraum $V = \cC⁰([-π,π], ℝ)$ der reellwertigen steti
|
||||
Funktionen auf dem Intervall $[-π,π] ⊂ ℝ$. Wir haben schon gesehen, dass die
|
||||
Abbildung
|
||||
\[
|
||||
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{-π} f(t) · g(t) dt.
|
||||
\langle •, • \rangle : V ⨯ V → ℝ, \quad (f, g) ↦ \frac{1}{π}·\int^{π}_{-π} f(t) · g(t) dt
|
||||
\]
|
||||
ein Skalarprodukt ist. Rechnen Sie sofort mit Hilfe der bekannten
|
||||
ein Skalarprodukt ist. Rechnen Sie sofort mithilfe der bekannten
|
||||
Additionstheoreme für Sinus und Kosinus nach, dass für alle positiven Zahlen $n$
|
||||
und $m$ aus $ℕ$ die folgenden Gleichungen gelten:
|
||||
\[
|
||||
@ -521,21 +521,21 @@ eine orthonormale Teilmenge des Euklidischen Vektorraumes $\bigl( V, \langle •
|
||||
|
||||
\subsubsection{Rekonstruktion von Funktionen}
|
||||
|
||||
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von
|
||||
$\mathcal{F}$ erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion
|
||||
$f ∈ F$ habe, dann kann ich die Zahlen
|
||||
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von $\mathcal{F}$
|
||||
erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion $f ∈ F$ habe, dann
|
||||
kann ich die Zahlen
|
||||
\begin{equation}\label{eq:12-2-0-1}
|
||||
a_n := \left\langle f, \sin(n·x) \right\rangle, \quad
|
||||
b_n := \left\langle f, \cos(n·x) \right\rangle, \quad
|
||||
c := \left\langle f, \frac{1}{\sqrt{2}} \right\rangle
|
||||
\end{equation}
|
||||
ausrechnen und erhalte die Gleichung:
|
||||
ausrechnen und erhalte die Gleichung
|
||||
\begin{equation}\label{eq:12-2-0-2}
|
||||
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr)
|
||||
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^∞ \bigl( a_n·\sin(n·x) + b_n·\sin(n·x) \bigr).
|
||||
\end{equation}
|
||||
Beachte dabei, dass nur endlich viele der Zahlen $a_n$, $b_n$ von Null
|
||||
verschieden sind, so dass auf der rechten Seite der
|
||||
Gleichung~\eqref{eq:12-2-0-2} tatsächlich nur eine endliche Summe steht.
|
||||
verschieden sind, sodass auf der rechten Seite der Gleichung~\eqref{eq:12-2-0-2}
|
||||
tatsächlich nur eine endliche Summe steht.
|
||||
|
||||
|
||||
\subsection{Fourier-Reihen}
|
||||
@ -576,13 +576,13 @@ zeigt wie man eine Sprungfunktion annähert.
|
||||
|
||||
Weitere Beispiele gibt es bei
|
||||
\href{https://de.wikipedia.org/wiki/Fourierreihe#Beispiele}{Wikipedia} und in
|
||||
diesem phantastischem
|
||||
diesem fantastischem
|
||||
\href{https://www.youtube.com/watch?v=lL0oUZGMhXc}{Erklärvideo vom MIT}.
|
||||
Vielleicht schauen sie auch einmal in
|
||||
\href{https://av.tib.eu/media/10336}{dieses Video} oder in
|
||||
\href{https://www.youtube.com/watch?v=spUNpyF58BY}{dieses}. Sie finden im
|
||||
Internet auch eine \href{https://www.google.com/search?q=fourier+applet}{große
|
||||
Zahl von Applets}, bei denen man direkt mit den Näherungen spielen kann.
|
||||
Zahl von Applets}, bei denen man direkt mit den Näherungen spielen kann.
|
||||
|
||||
\begin{figure}
|
||||
\centering
|
||||
@ -602,7 +602,7 @@ Funktionen mit Periode $2π$. Man kann ähnliche Konstruktionen auch für nahez
|
||||
beliebige Funktionen machen. Allerdings erhält man statt der
|
||||
Fourier-Koeffizienten
|
||||
\[
|
||||
a_n := \frac{1}{π}·\int^{π}_{-π} f(t) · \sin(n·t) dt.
|
||||
a_n := \frac{1}{π}·\int^{π}_{-π} f(t) · \sin(n·t) dt
|
||||
\]
|
||||
dann eine Fourier-Transformierte, die man sinnvollerweise in komplexen Zahlen
|
||||
schreibt
|
||||
@ -617,38 +617,38 @@ wird dann die Formel
|
||||
\[
|
||||
f(x) = \frac{1}{\sqrt{2π}}·\int_{-∞}^{∞} F(t)·e^{-itx}dt.
|
||||
\]
|
||||
Die Funktion $F$ nennt man ``Fourier-Transformierte'' oder
|
||||
``Spektrum''. Spektren gibt es in der reellen Welt überall zum Beispiel in
|
||||
unserem Ohr. Das Ohr ist ein ``Spektralapparat'', der auf mechanische Weise die
|
||||
Fourier-Transformation der eingehenden Schallwelle berechnet und zum Gehirn
|
||||
weiterleitet. Wenn man Akustik verstehen will, muss man Fourier-Transformation
|
||||
verstehen. Dann kann man super-interessante Sachen machen.
|
||||
Die Funktion $F$ nennt man „Fourier-Transformierte“ oder „Spektrum“. Spektren
|
||||
gibt es in der reellen Welt überall zum Beispiel in unserem Ohr. Das Ohr ist
|
||||
ein „Spektralapparat“, der auf mechanische Weise die Fourier-Transformation der
|
||||
eingehenden Schallwelle berechnet und zum Gehirn weiterleitet. Wenn man Akustik
|
||||
verstehen will, muss man Fourier-Transformation verstehen. Dann kann man
|
||||
super-interessante Sachen machen.
|
||||
\begin{itemize}
|
||||
\item Um Klangdaten zu analysieren (etwa um mit dem Computer Sprache zu
|
||||
analysieren), schaue man sich die Fourier-Transformation an. Es ist mit
|
||||
diesen Methoden nicht schwierig, ein kleine Computerprogramm zu bauen, dass
|
||||
ein gesprochenes ``e'' von einem ``a'' unterscheidet. Suchen Sie im Internet
|
||||
nach ``Python'' und ``SciKit'', dann finden Sie alles, was sie brauchen.
|
||||
diesen Methoden nicht schwierig, ein kleines Computerprogramm zu bauen, dass
|
||||
ein gesprochenes „e“ von einem „a“ unterscheidet. Suchen Sie im Internet nach
|
||||
„Python“ und „SciKit“, dann finden Sie alles, was sie brauchen.
|
||||
|
||||
\item Wenn ich das Spektrum eines Klanges berechnen kann, ist es super-einfach,
|
||||
interessante Sound-Effekte zu programmieren. Zum Beispiel kann ich ein
|
||||
Programm machen, das ein Musikstück schneller abspielt ohne die Tonhöhe zu
|
||||
Programm machen, das ein Musikstück schneller abspielt, ohne die Tonhöhe zu
|
||||
verändern.
|
||||
|
||||
\item Da sich das Gehirn nur für das Spektrum interessiert, muss ich mir das
|
||||
Spektrum anschauen, wenn ich erkennen will, welche Teile eines Klanges für das
|
||||
Gehirn interessant sind. Das bekannte Dateiformat MP3 funktioniert so: schaue
|
||||
das Spektrum an, verwende ein mathematisch beschriebenes Modell der
|
||||
akustischen Wahrnehmung von Tonsignalen (``psycho-akustisches Modell'') und
|
||||
erkenne die Teile des Spektrums die für das Gehirn uninteressant sind. Lasse
|
||||
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern ohne den Klang
|
||||
wesentlich zu verschlechtern.
|
||||
akustischen Wahrnehmung von Tonsignalen („psycho-akustisches Modell“) und
|
||||
erkenne die Teile des Spektrums, die für das Gehirn uninteressant sind. Lasse
|
||||
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern, ohne den
|
||||
Klang wesentlich zu verschlechtern.
|
||||
\end{itemize}
|
||||
|
||||
Die Fourier-Transformation tritt aber noch an vielen anderen Stellen auf:
|
||||
Signaltechnik, Analyse von Schwingungen in den Ingenieurswissenschaften, und in
|
||||
der Elektronik. Sie ist aber auch die Grundlage der Quantenmechanik. Die
|
||||
``Heisenbergsche Unschärferelation'', über die Philosophen viel schreiben, ist
|
||||
„Heisenbergsche Unschärferelation“, über die Philosophen viel schreiben, ist
|
||||
eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
|
||||
|
||||
|
||||
@ -656,31 +656,31 @@ eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
|
||||
\label{ssec:Rechen}
|
||||
|
||||
Ich habe von Kollegen aus der Physik gehört, die Fourier-Transformation sei
|
||||
wegen ihrer Wichtigkeit die ``fünfte Grundrechenart''. Das ist natürlich
|
||||
falsch. Tatsache ist, dass moderne Prozessoren die
|
||||
``\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
|
||||
Fouriertransformation}'' extrem effizient ausführen können. Sehr viele
|
||||
elektronischen Geräten enthalten zusätzlich Spezialchips zur
|
||||
Fouriertransformation. Damit lässt sie die Fourier-Transformation so effizient
|
||||
implementieren, dass Computer die Multiplikation ganzer Zahlen mit Hilfe von
|
||||
Fourier-Transformation durchführen; Multiplikation ist also nur noch eine
|
||||
Anwendung der schnellen Fouriertransformation.
|
||||
wegen ihrer Wichtigkeit die „fünfte Grundrechenart“. Das ist natürlich falsch.
|
||||
Tatsache ist, dass moderne Prozessoren die
|
||||
„\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
|
||||
Fouriertransformation}“ extrem effizient ausführen können. Viele elektronische
|
||||
Geräte enthalten zusätzlich Spezialchips zur Fouriertransformation. Damit lässt
|
||||
sie die Fourier-Transformation so effizient implementieren, dass Computer die
|
||||
Multiplikation ganzer Zahlen mithilfe von Fourier-Transformation durchführen;
|
||||
Multiplikation ist also nur noch eine Anwendung der schnellen
|
||||
Fouriertransformation.
|
||||
|
||||
\begin{quote}
|
||||
Der Schönhage-Strassen-Algorithmus ist ein Algorithmus zur Multiplikation
|
||||
zweier großer ganzer Zahlen. Er wurde 1971 von Arnold Schönhage und Volker
|
||||
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen Variante
|
||||
der diskreten schnellen Fourier-Transformation sowie einem geschickten Wechsel
|
||||
zwischen der Restklassen- und der zyklischen Arithmetik in endlichen
|
||||
Zahlenringen.
|
||||
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen
|
||||
Variante der diskreten schnellen Fourier-Transformation sowie einem
|
||||
geschickten Wechsel zwischen der Restklassen- und der zyklischen Arithmetik in
|
||||
endlichen Zahlenringen.
|
||||
|
||||
-- \href{https://en.wikipedia.org/wiki/Sch%C3%B6nhage%E2%80%93Strassen_algorithm}{Wikipedia}
|
||||
\end{quote}
|
||||
|
||||
Schauen Sie sich auch einmal
|
||||
\href{https://aimath.org/news/congruentnumbers/howtomultiply.html}{diesen
|
||||
Artikel} an. Die Grundrechenarten im 21 Jahrhundert sind also nicht ``plus,
|
||||
minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
|
||||
Artikel} an. Die Grundrechenarten im 21.~Jahrhundert sind also nicht „plus,
|
||||
minus, mal, geteilt“, sondern „plus, minus, Fourier-Transformation“.
|
||||
|
||||
|
||||
\subsection{Warum Sinus und Kosinus}
|
||||
@ -688,7 +688,7 @@ minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
|
||||
Sie fragen sich vielleicht, was das besondere an Sinus und Kosinus ist? Warum
|
||||
sind diese beiden Funktionen so wichtig? Eine Antwort ist: weil viele
|
||||
natürliche Prozesse (wie etwa unser Gehör) aus Sinus und Kosinus basieren. Es
|
||||
gibt aber noch andere Funktionen, mit denen man etwas ähnliches machen kann, zum
|
||||
gibt aber noch andere Funktionen, mit denen man etwas Ähnliches machen kann, zum
|
||||
Beispiel die
|
||||
\href{https://de.wikipedia.org/wiki/Kugelfl%C3%A4chenfunktionen}{Kugelflächenfunktionen},
|
||||
die die quantenmechanischen Gleichungen zur Beschreibung von
|
||||
@ -708,10 +708,9 @@ von Menschen fünf-dimensional ist?
|
||||
Bei den Big Five (auch Fünf-Faktoren-Modell, FFM) handelt es sich um ein
|
||||
Modell der Persönlichkeitspsychologie. Im Englischen wird es auch als
|
||||
OCEAN-Modell bezeichnet (nach den entsprechenden Anfangsbuchstaben Openness,
|
||||
Conscientiousness, Extraversion, Agreeableness, Neuroticism).
|
||||
|
||||
Ihm zufolge existieren fünf Hauptdimensionen der Persönlichkeit und jeder
|
||||
Mensch lässt sich auf folgenden Skalen einordnen:
|
||||
\foreignlanguage{english}{Conscientiousness, Extraversion, Agreeableness,
|
||||
Neuroticism}). Dem Modell zufolge existieren fünf Hauptdimensionen der
|
||||
Persönlichkeit und jeder Mensch lässt sich auf folgenden Skalen einordnen:
|
||||
|
||||
\begin{itemize}
|
||||
\item Offenheit für Erfahrungen (Aufgeschlossenheit),
|
||||
@ -739,43 +738,43 @@ von Menschen fünf-dimensional ist?
|
||||
--- \href{https://de.wikipedia.org/wiki/Big_Five_(Psychologie)}{Wikipedia}
|
||||
\end{quote}
|
||||
|
||||
Die Frage nach der Persönlichkeit mag ein bischen theoretisch vorkommen, ist
|
||||
Die Frage nach der Persönlichkeit mag ein bisschen theoretisch vorkommen, ist
|
||||
aber für Sie von großem praktischen Belang; Datenanalyse-Firmen verdienen viel
|
||||
Geld damit, die fünf Koordinaten Ihrer Persönlichkeit für zahlende Kundschaft zu
|
||||
ermitteln --- suchen Sie im Internet nach den Worten ``Stryker'',
|
||||
``Bewerbungsgespräch'' und ``Gallup-Test'' um zu sehen, was ich meine.
|
||||
ermitteln --- suchen Sie im Internet nach den Worten „Stryker“,
|
||||
„Bewerbungsgespräch“ und „Gallup-Test“ um zu sehen, was ich meine.
|
||||
|
||||
|
||||
\subsection{Wie kommt man auf die Zahl ``fünf''?}
|
||||
\subsection{Wie kommt man auf die Zahl „fünf“?}
|
||||
|
||||
Bis über die Schmerzgrenze hinaus übermäßig vereinfacht gesagt, so.
|
||||
|
||||
\begin{itemize}
|
||||
\item Nimm eine Liste aller möglichen Adjektive der Englischen Sprache, die sich
|
||||
auf ``Persönlichkeit'' beziehen -- bei Wikipedia ist von 18.000 Begriffen die
|
||||
\item Nimm eine Liste aller möglichen Adjektive der englischen Sprache, die sich
|
||||
auf „Persönlichkeit“ beziehen -- bei Wikipedia ist von 18.000 Begriffen die
|
||||
Rede.
|
||||
|
||||
\item Nimm eine möglichst große Gruppe von $P$ Probanden und messe für jeden
|
||||
Probanden, wie stark die einzelnen Adjektive ausgeprägt sind. Wir erhalten
|
||||
für jeden Probanden $p ∈ P$ einen Vektor im $\vec{v}_p ∈ ℝ^{18000}$.
|
||||
|
||||
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum
|
||||
$V ⊂ ℝ^{18000}$ gibt, so dass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im
|
||||
Wesentlichen alle in $V$ liegen.
|
||||
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum $V ⊂ ℝ^{18000}$
|
||||
gibt, sodass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im Wesentlichen alle in $V$
|
||||
liegen.
|
||||
|
||||
\item Stelle auch fest, dass es keinen vier-dimensionalen Untervektorraum mit
|
||||
diesen Eigenschaften gibt.
|
||||
\end{itemize}
|
||||
|
||||
Die Frage ist, wie man den Vektorraum $V$ jetzt praktisch findet; das ist die
|
||||
Aufgabe der ``Hauptkomponentenanalyse''. Kurz gesagt berechnet man für je zwei
|
||||
Aufgabe der „Hauptkomponentenanalyse“. Kurz gesagt berechnet man für je zwei
|
||||
Adjektive $a_i$ und $a_j$ die Kovarianz $a_{ij}$.
|
||||
|
||||
\begin{quote}
|
||||
Kovarianz: Der Wert dieser Kenngröße macht tendenzielle Aussagen darüber, ob
|
||||
hohe Werte der einen Zufallsvariablen eher mit hohen oder eher mit niedrigen
|
||||
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß für
|
||||
die Assoziation zwischen zwei Zufallsvariablen.
|
||||
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß
|
||||
für die Assoziation zwischen zwei Zufallsvariablen.
|
||||
|
||||
--- \href{https://de.wikipedia.org/wiki/Kovarianz_(Stochastik)}{Wikipedia}
|
||||
\end{quote}
|
||||
@ -800,16 +799,16 @@ Zahlen stehen; alle anderen Zahlen sind vom Betrag recht klein.
|
||||
\subsection{… und weiter?}
|
||||
|
||||
Hauptkomponentenanalyse wird in fast jedem Bereich der empirischen
|
||||
Wissenschaften verwendet. Suchen Sie im Internet nach ``Hauptkomponentenanalyse
|
||||
und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
|
||||
Wissenschaften verwendet. Suchen Sie im Internet nach „Hauptkomponentenanalyse
|
||||
und Sportwissenschaft“. Wikipedia nennt unter anderem noch folgende Beispiele.
|
||||
\begin{itemize}
|
||||
\item Wendet man die Hauptkomponentenanalyse auf das Kaufverhalten von
|
||||
Konsumenten an, gibt es möglicherweise latente Faktoren wie sozialer Status,
|
||||
Alter oder Familienstand, die bestimmte Käufe motivieren. Hier könnte man
|
||||
durch gezielte Werbung die Kauflust entsprechend kanalisieren.
|
||||
|
||||
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, könnte mit
|
||||
Hilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
|
||||
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, kann man
|
||||
mithilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
|
||||
Modell reduziert werden, was meistens die Modellqualität steigert.
|
||||
|
||||
\item Anwendung findet die Hauptkomponentenanalyse auch in der Bildverarbeitung
|
||||
@ -817,17 +816,18 @@ und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
|
||||
analysieren und Rückschlüsse daraus ziehen.
|
||||
|
||||
\item Ein weiteres Gebiet ist die Künstliche Intelligenz, zusammen mit den
|
||||
Neuronalen Netzen. Dort dient die PCA zur Merkmalstrennung im Rahmen der
|
||||
neuronalen Netzen. Dort dient die PCA zur Merkmals-Trennung im Rahmen der
|
||||
automatischen Klassifizierung bzw. in der Mustererkennung.
|
||||
|
||||
\item In quantitative finance, principal component analysis can be directly
|
||||
applied to the risk management of interest rate derivative portfolios. Trading
|
||||
multiple swap instruments which are usually a function of 30-500 other market
|
||||
quotable swap instruments is sought to be reduced to usually 3 or 4 principal
|
||||
components, representing the path of interest rates on a macro
|
||||
basis. Converting risks to be represented as those to factor loadings (or
|
||||
multipliers) provides assessments and understanding beyond that available to
|
||||
simply collectively viewing risks to individual 30-500 buckets.
|
||||
\item \foreignlanguage{english}{In quantitative finance, principal component
|
||||
analysis can be directly applied to the risk management of interest rate
|
||||
derivative portfolios. Trading multiple swap instruments which are usually a
|
||||
function of 30-500 other market quotable swap instruments is sought to be
|
||||
reduced to usually 3 or 4 principal components, representing the path of
|
||||
interest rates on a macro basis. Converting risks to be represented as those
|
||||
to factor loadings (or multipliers) provides assessments and understanding
|
||||
beyond that available to simply collectively viewing risks to individual
|
||||
30-500 buckets.}
|
||||
\end{itemize}
|
||||
|
||||
% !TEX root = LineareAlgebra2
|
||||
|
Loading…
x
Reference in New Issue
Block a user