LineareAlgebra2/12-Anwendungen.tex
Stefan Kebekus bd2fd06b37 Add proof
2025-04-24 10:59:46 +02:00

834 lines
36 KiB
TeX
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Anwendungen}
\sideremark{Vorlesung 17}Haben Sie schon einmal nachts wach im Bett gelegen,
weil Sie unbedingt eine symmetrische Matrix mit Hilfe eines orthogonalen
Basiswechsels diagonalisieren wollten? Drängt es Sie, die Koeffizienten von
Linearkombinationen mit Hilfe von Skalarprodukten auszurechnen?
Die Begriffe und Methoden des laufenden Kapitels über ``Euklidische und
Hermitesche Vektorräume'' haben enorm viele Anwendungen. Tatsächlich handelt es
sich bei vielen der heißen Themen zu ``Machine Learning'', ``Collective
Intelligence'' oder ``Artificial Intelligence'' um relativ einfache Methoden der
linearen Algebra, die bei unserem Stand der Debatte sehr gut verstehen können --
schauen Sie sich bei \href{https://www.kaggle.com}{kaggle} um, wo es eine
unendliche Menge von hervorragenden Tutorials, Erklärvideos, Projektvorschlägen
und kleinen Wettbewerben gibt. Es gilt der alte Satz, dass Mathematik nicht
notwendig kompliziert sein muss, um Nützlich zu sein. Ich reiße in diesem
Kapitel einige Anwendungen oberflächlich an
Der Abschnitt über die Klassifikation der reellen Quadriken ist klassischer
Lehrstoff und prüfungsrelevant. Die anderen Kapitel sollen Sie neugierig
machen, können aber nicht sinnvoll geprüft werden.
\section{Reelle Quadriken}
Die erste ``Anwendung'' ist immer noch ziemlich theoretisch und stammt
mindestens aus der hellenistischen Antike, also etwa der Zeit Alexander des
Großen. Vielleicht war die Sache aber auch schon zu babylonischer Zeit bekannt,
\href{https://www.ams.org/notices/200809/tx080901076p.pdf}{wo Mathematik eine
große Rolle spielte}. Es geht um folgende Situation.
\begin{situation}[Quadrik im $^n$]\label{sit:12-1-1}
Gegeben sei der $^n$ mit Koordinatenfunktionen $x_1, …, x_n$ und ein
Polynom $f(x_1, …, x_n)$ vom Grad $=2$
\[
f(x_1, …, x_n) = \sum_{j=1}^n\sum_{i=1}^j f_{ij}·x_i x_j + \sum_{i=1}^n f_i x_i + f_0
\]
mit der Nullstellenmenge
$Q := \{ \vec{x}^n \:|\: f(x_1, …, x_n) = 0 \}$. Dabei sind die
Koeffizienten $f_{••}$ und $f_{}$ reelle Zahlen.
\end{situation}
\begin{defn}[Quadrik]
Die Nullstellenmenge eines Polynoms vom Grad $2$ heißt
\emph{Quadrik}\index{Quadrik}.
\end{defn}
Wir stellen in diesem Kapitel die Frage, was wir über die Geometrie von reellen
Quadriken sagen können. Es ist klar, dass das Bild einer Quadrik unter einer
lineare Abbildung oder Translation wieder eine Quadrik ist. Deshalb fragen wir
genauer: Wie sieht $Q$ aus nach geeigneter Wahl von Koordinaten und nach
Translationen? Wir formulieren die Frage präziser und führen die folgende
Notation ein.
\begin{defn}[Affine Abbildung]\label{def:12-1-3}
Es sei $k$ ein Körper und $V, W$ zwei $k$-Vektorräume. Eine Abbildung
$Φ : V → W$ heißt \emph{affin}\index{affine Abbildung}, falls es eine lineare
Abbildung $φ : V → W$ und einen Vektor $\vec{w} ∈ W$ gibt, so dass für alle
$\vec{v} ∈ V$ die Gleichung $Φ(\vec{v}) = φ(\vec{v}) + \vec{w}$ gilt.
\end{defn}
\begin{beobachtung}
Die Verkettung von affinen Abbildungen ist wieder affin. Wenn eine affine
Abbildung bijektiv ist, dann ist die Umkehrabbildung ebenfalls affin. Die
bijektiven, affinen Selbstabbildung eines Vektorraumes bilden daher eine
Untergruppe der Gruppe der bijektiven Selbstabbildungen.
\end{beobachtung}
Damit können wir unsere Frage präzise formulieren.
\begin{frage}
Gegeben sei Situation~\ref{sit:12-1-1}. Gibt es dann eine bijektive, affine
Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$ unter der
Abbildung $Φ$ eine Quadrik von besonders einfacher Gestalt ist? Gibt es
eine (kleine) Mengen von ``Grund-Quadriken'' aus denen alle anderen durch
affine Transformation (wie zum Beispiel: Translation, Drehung, Streckung,
Verschiebung, …) entstehen?
\end{frage}
Die Antwort ist natürlich ``ja'', aber Sie haben ja zum Glück noch nicht weiter
nach vorn geblättert. Sie kennen ähnliche Fragen aus der Schule. Bei der
Diskussion der Kongruenz von Dreiecken betrachtet man Dreiecke statt Quadriken
und abstandserhaltende Abbildungen statt affiner Abbildungen.
\subsection{Vereinfachung von Quadratischen Gleichungen}
Wir bleibe in Situation~\ref{sit:12-1-1} und werden jetzt eine Reihe von
bijektiven, affinen Abbildungen finden, so dass die Gleichung (der Bilder von)
$Q$ immer einfacher wird. Wie immer gibt es viel Material im Internet; ein
Student wies mich auf
\href{https://www.youtube.com/watch?v=wYJAggfstyI}{folgendes Video} hin.
\subsubsection{Schritt 1: Darstellung von $f$ durch Matrizen}
Wir betrachten die folgende, symmetrische $nn$-Matrix
\[
A =
\begin{pmatrix}
f_{11} & \frac{1}{2}·f_{12} & && \frac{1}{2}·f_{1n} \\
\frac{1}{2}·f_{12} & f_{22} & \ddots & & \vdots \\
\vdots & \ddots & \ddots \\
& & & f_{n-1,n-1} & \frac{1}{2}·f_{n-1,n} \\
\frac{1}{2}·f_{1n} && & \frac{1}{2}·f_{n-1,n} & f_{nn}
\end{pmatrix}
\]
und den Vektor
\[
\vec{b} = \left(\frac{1}{2}·f_1, …, \frac{1}{2}·f_n \right).
\]
Dann gilt für jeden Vektor $\vec{x}^n$ die Gleichung
\begin{equation}\label{eq:12-1-3-1}
f(\vec{x}) = \vec{x}^{\:t}·A·\vec{x} + 2\vec{b}·\vec{x} + f_0.
\end{equation}
Vielleicht ist Ihnen im Moment noch nicht klar, warum Gleichung
\eqref{eq:12-1-3-1} jetzt helfen soll, die Quadriken besser zu verstehen. Der
Witz ist aber, dass wir die symmetrische Matrix $A$ diagonalisieren können!
\clearpage
\subsubsection{Schritt 2: Eliminierung der gemischten Terme}
Wir wissen: es existiert eine orthogonale $nn$-Matrix $W$, so dass die
Produktmatrix $W^t·A·W$ diagonal ist. Es sei $Q^{(1)}$ das Bild von $Q$ unter
der bijektiven linearen Abbildung $\vec{x} ↦ W^{-1}·\vec{x}$. Dann gilt
für alle $\vec{x}^n$:
\begin{align*}
\vec{x} ∈ Q^{(1)} & ⇔ W·\vec{x} ∈ Q \\
& ⇔ f(W·\vec{x}) = 0 \\
& ⇔ (W·\vec{x})^t·A·(W·\vec{x}) + 2 \vec{b} · (W·\vec{x}) + f_0 = 0 \\
&\vec{x}^{\:t}·(W^t·A·W)·\vec{x} + 2 (\vec{b}·W)·\vec{x} + f_0 = 0
\end{align*}
Wir erkennen zum einen, dass die Bildmenge $Q^{(1)}$ wieder eine Quadrik ist.
Die Gleichung $f^{(1)}$ der Quadrik $Q^{(1)}$ ist besonders einfach, weil es
keinen gemischten Terme mehr gibt. Das Polynom $f^{(1)}$ sieht also aus wie
\[
f^{(1)}(\vec{x}) = \sum_{i=1}^n a^{(1)}_i·x_+ 2·\sum_{i=1}^n b^{(1)}_i·x_i + c^{(1)}
\]
Einige (aber nicht alle!) der Koeffizienten $a_i$ könnten gleich Null sein.
Durch Umnummerierung kann man aber gleich noch erreichen, dass $a_1, …, a_r$
ungleich Null sind und $a_{r+1}, …, a_n$ gleich Null, also insbesondere
\[
f^{(1)}(\vec{x}) = \sum_{i=1}^r a^{(1)}_i·x_+ 2·\sum_{i=1}^n b^{(1)}_i·x_i + c^{(1)}
\]
\clearpage
\subsubsection{Schritt 3: Eliminierung der linearen Terme für $i≤ r$}
Betrachte die Translation
\[
φ : ^n → ^n, \quad
\begin{pmatrix}
x_1 \\ \vdots \\ x_r \\ x_{r+1} \\ \vdots \\ x_n
\end{pmatrix}
\begin{pmatrix}
x_1+\frac{b^{(1)}_1}{a^{(1)}_1} \\ \vdots \\ x_r+\frac{b^{(1)}_r}{a^{(1)}_r} \\ x_{r+1} \\ \vdots \\x_n
\end{pmatrix}
\]
und definiere $Q^{(2)}$ als das Bild von $Q^{(1)}$ unter dieser Abbildung. Dann
gilt für alle $\vec{x}^n$:
\begin{align*}
\vec{x} ∈ Q^{(2)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(1)} \\
&\sum_{i=1}^r
a^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i}
\right)² + 2 · \sum_{i=1}^r b^{(1)}_\left(x_i-\frac{b^{(1)}_i}{a^{(1)}_i} \right) + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + c^{(1)} = 0 \\
&\sum_{i=1}^r a^{(1)}_i·x_i² + 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)} = 0
\end{align*}
Die Bildmenge $Q^{(2)}$ ist also wieder eine Quadrik, gegeben durch ein Polynom
\[
g(\vec{x}) = \sum_{i=1}^r a^{(1)}_i·x_+ 2·\sum_{i=r+1}^n b^{(1)}_i·x_i + d^{(1)}
\]
Falls die Zahl $d^{(1)}$ ungleich Null ist, können wir die Gleichung durch
$-d^{(1)}$ dividieren (das ändert die Nullstellenmenge nicht). In jedem Fall
ist die Bildmenge $Q^{(2)}$ gegeben durch ein Polynom
\[
f^{(2)}(\vec{x}) = \sum_{i=1}^r a^{(2)}_i·x_+ 2·\sum_{i=r+1}^n
b^{(2)}_i·x_i + c^{(2)}
\]
wobei $c^{(2)}\{0, -1\}$ ist.
\clearpage
\subsubsection{Schritt 4: Eliminierung weiterer linearer Terme}
Diese Konstruktion ist nur relevant, falls mindestens eines der $b^{(2)}_i$
ungleich Null ist. Falls alle $b^{(2)}_i$ verschwinden, machen wir in diesem
Schritt nichts und setzen
\[
Q^{(3)} := Q^{(2)}, \quad f^{(3)} := f^{(2)}, \quad a^{(3)}_i := a^{(2)}_i, \quad b^{(3)}_i := b^{(2)}_i, \quad c^{(3)} := c^{(2)}
\]
Ansonsten können wir nach umnummerieren der Variable annehmen, dass
$b^{(2)}_{r+1} \ne 0$ ist. Betrachte dann die affine Bijektion
\[
φ : ^n → ^n, \quad
\begin{pmatrix}
x_1 \\ \vdots \\ x_r \\ x_{r+1} \\ x_{r+2} \\ \vdots \\ x_n
\end{pmatrix}
\begin{pmatrix}
x_1 \\ \vdots \\ x_r \\ \frac{-c^{(2)}}{2}-\sum_{j=r+1}^n b^{(2)}_j·x_j \\ x_{r+2} \\ \vdots \\x_n
\end{pmatrix}
\]
und definiere $Q^{(3)}$ als das Bild von $Q^{(2)}$ unter dieser Abbildung. Dann
gilt für alle $\vec{x}^n$:
\begin{align*}
\vec{x} ∈ Q^{(3)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(2)} \\
&\sum_{i=1}^r a^{(2)}_i·x²_i + 2·b^{(2)}_{r+1}·X + 2·\sum_{i=r+2}^n b^{(2)}_i·x_i + c^{(2)} = 0 \\
& \qquad\qquad\qquad \text{wobei } X = \left(\frac{-c^{(2)}}{2·b^{(2)}_{r+1}} - \frac{1}{b^{(2)}_{r+1}}·x_{r+1} - \sum_{j=r+2}^n \frac{b^{(2)}_j}{b^{(2)}_{r+1}}·x_j \right) \\
&\sum_{i=1}^r a^{(2)}_i·x²_i - 2·x_{r+1} = 0
\end{align*}
In jedem Fall gilt: die Bildmenge $Q^{(3)}$ ist also wieder eine Quadrik,
gegeben durch ein Polynom
\[
f^{(3)}(\vec{x}) = \sum_{i=1}^r a^{(3)}_i·x_+ b^{(3)}_{r+1}·x_{r+1} + c^{(3)}
\]
wobei $b^{(3)}_{r+1}\{0,-2\}$ und $c^{(3)}\{0, -1\}$ ist. Weiterhin
gilt: $b^{(3)}_{r+1} \ne 0 ⇒ c^{(3)} = 0$.
\subsubsection{Schritt 5: Skalierung}
Jetzt betrachte die Skalierung
\[
φ : ^n → ^n, \quad
\begin{pmatrix}
x_1 \\ \vdots \\ x_r \\ x_{r+1} \\ \vdots \\ x_n
\end{pmatrix}
\begin{pmatrix}
x_1·\sqrt{|a^{(3)}_1|} \\ \vdots \\ x_\sqrt{|a^{(3)}_r|} \\ x_{r+1} \\ \vdots \\x_n
\end{pmatrix}
\]
und definiere $Q^{(4)}$ als das Bild von $Q^{(4)}$ unter dieser Abbildung. Dann
gilt für alle $\vec{x}^n$:
\begin{align*}
\vec{x} ∈ Q^{(4)} & ⇔ φ^{-1}(\vec{x}) ∈ Q^{(3)} \\
&\sum_{i=1}^r a^{(3)}_\left(\frac{x_i}{\sqrt{|a^{(3)}_i|}} \right)² + b^{(3)}_{r+1}·x_{r+1} + c^{(3)} = 0.
\end{align*}
Also ist Bildmenge $Q^{(4)}$ ist also wieder eine Quadrik, gegeben durch ein
Polynom
\[
f^{(4)}(\vec{x}) = \sum_{i=1}^r a^{(4)}_i·x_+ b^{(4)}_{r+1}·x_{r+1} + c^{(4)}
\]
wobei $a^{(4)}_{}\{-1, 1\}$, $b^{(4)}_{r+1}\{0, -2\}$ und
$c^{(4)}\{0, -1\}$ ist. Weiterhin gilt:
$b^{(4)}_{r+1} \ne 0 ⇒ c^{(4)} = 0$.
\clearpage
\subsection{Zusammenfassung der Vereinfachungen}
Insgesamt haben wir mit den oben genannten Vereinfachungsschritten jetzt
folgenden Satz bewiesen.
\begin{satz}[Klassifikation der Quadriken]\label{satz:12-1-6}
In Situation~\ref{sit:12-1-1} gibt es Zahlen $r$, $k$ gibt es eine bijektive,
affine Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$
Nullstellenmenge einer der folgenden Gleichungen ist
\begin{enumerate}
\item $x_1² + x_2² ++ x_- x_{r+1}² -- x_$
\item $x_1² + x_2² ++ x_- x_{r+1}² -- x_- 1$
\item $x_1² + x_2² ++ x_- x_{r+1}² -- x_- 2·x_{k+1}$
\qed
\end{enumerate}
\end{satz}
\subsection{Klassifikation von Koniken}
Im Falle $n = 2$ nennt man Quadriken auch \emph{Koniken}\index{Konik}; diese
treten in der Elementargeometrie als
\href{https://de.wikipedia.org/wiki/Kegelschnitt}{Kegelschnitte}\index{Kegelschnitte}
-- sie finden zu diesem Thema jede Menge Videos, zum Beispiel
\href{https://www.youtube.com/watch?v=-kVHDqf4tDk}{dieses hier}. Koniken sind
seit der Antike ganz gut verstanden. Als Spezialfall des
Satzes~\ref{satz:12-1-6} erhalten wir eine Klassifikation der Koniken.
\begin{kor}[Klassifikation der Koniken des Appollonius von
Perge\footnote{\href{https://de.wikipedia.org/wiki/Apollonios_von_Perge}{Appollonius
von Perge} (* ca. 265 v. Chr. in Perge; † ca. 190 v. Chr. in Alexandria)
war ein antiker griechischer Mathematiker, bekannt für sein Buch über
Kegelschnitte.}]
Betrachte Situation~\ref{sit:12-1-1} im Falle $n = 2$. Dann gibt es eine
bijektive, affine Abbildung $Φ : ^n → ^n$, so dass das Bild von $Q$
Nullstellenmenge einer der folgenden Gleichungen ist
\begin{enumerate}
\item $= 0:$ Doppelgerade \label{Q.1}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] (0,-2.5) -- (0,2.5);
\end{tikzpicture}
\end{center}
\item $+= 0:$ Punkt \label{Q.2}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] (0,0) circle (1.5pt);
\end{tikzpicture}
\end{center}
\item $-= 0:$ zwei Geraden, die sich schneiden \label{Q.3}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] plot (\x,\x);
\draw[red, very thick] plot (\x,-\x);
\end{tikzpicture}
\end{center}
\item $--= 0:$ wie Fall \ref{Q.2} \label{Q.4} % kommt nicht vor unten
\item $= 1:$ zwei parallele Geraden \label{Q.5}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] (-1,-2.5) -- (-1,2.5);
\draw[red, very thick] (1,-2.5) -- (1,2.5);
\end{tikzpicture}
\end{center}
\item $+= 1:$ Kreis \label{Q.6}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] (0,0) circle (1cm);
\end{tikzpicture}
\end{center}
\item $-= 1:$ Hyperbel \label{Q.7}
\begin{center}
\begin{tikzpicture}
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick, domain =1:2.5] plot (\x, {-sqrt((\x)^(2)-1)});
\draw[red, very thick, domain =1:2.5] plot (\x,{sqrt((\x)^(2)-1)});
\draw[red, very thick, domain =-2.5:-1] plot (\x, {-sqrt((\x)^(2)-1)});
\draw[red, very thick, domain =-2.5:-1] plot (\x,{sqrt((\x)^(2)-1)});
% hier muss man Fallunterscheidungen und schauen, dass sqrt nichts Negatives
% zum Auswerten bekommt
\end{tikzpicture}
\end{center}
\item $--= 1:$ (leere Menge) \label{Q.8}
\begin{center}
\begin{tikzpicture}[domain =-2.5:2.5]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
% leere Menge
\end{tikzpicture}
\end{center}
\item $- 2y = 0:$ Parabel \label{Q.9}
\begin{center}
\begin{tikzpicture}[domain =-sqrt(5):sqrt(5)] %richtige Domain wählen
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] plot (\x, {0.5*(\x)^(2)});
\end{tikzpicture}
\end{center}
\item $-- 2y = 0:$ Parabel \label{Q.10}
\begin{center}
\begin{tikzpicture}[domain =-sqrt(5):sqrt(5)]
\draw[very thin, gray!70] (-2.5,-2.5) grid (2.5,2.5);
\draw[->] (-2.5,0) -- (2.5,0) node[right] {$x$};
\draw[->] (0,-2.5) -- (0,2.5) node[above] {$y$};
\foreach \x in {-2,...,2}
\draw (\x,1mm) -- (\x,-1mm) node[below, fill=white] {\x};
\foreach \y in {-2,...,2}
\draw (1mm,\y) -- (-1mm,\y) node[left, fill=white] {\y};
\draw[red, very thick] plot (\x, {-0.5*(\x)^(2)});
\end{tikzpicture}
\end{center}
\end{enumerate}
\end{kor}
\subsection{Fragen}
\begin{itemize}
\item In der Schule haben wir gelernt, das Koniken auftreten, wenn sich Körper
im Schwerefeld bewegen. Wir kenne die Wurfparabel, die elliptischen
Umlaufbahnen von Planeten um die Sonne und die Hyperbelbahnen von die
Satelliten beim Vorbeiflug an einem Himmelskörper. Wieso treten hier
eigentlich Koniken auf?
\item Wir diskutieren in diesem Abschnitt reelle Quadriken. Ich behaupte, dass
ähnliche Konstruktionen über den komplexen Zahlen die Gleichungen noch weiter
vereinfachen; es gibt also insgesamt weniger Fälle. Wie viele Typen von
komplexen Koniken gibt es?
\end{itemize}
\subsection{Projekte}
Schreiben Sie ein Computerprogramm, das für eine gegebene Konik sofort eine
vereinfachende affine Transformation liefert. Stellen Sie die Transformation
graphisch dar, vielleicht mit automatisch generierten Videos die zeigen, wie es
zu den Vereinfachungen kommt.
\section{Die fünf Grundrechenarten}
\sideremark{Vorlesung 18}Ich erkläre in diesem Abschnitt die
Fourier-Transformation\footnote{\href{https://de.wikipedia.org/wiki/Joseph_Fourier}{Jean
Baptiste Joseph Fourier} (* 21. März 1768 bei Auxerre; † 16. Mai 1830 in
Paris) war ein französischer Mathematiker und Physiker.} und nenne einige
Anwendungen. Die Fourier-Transformation ist für die Praxis vielleicht das
wichtigste Stück Mathematik überhaupt\footnote{Sie selbst verwenden solche
Transformationen ununterbrochen -- haben Sie schon einmal ein Mobiltelefon
benutzt? Oder sind Sie vielleicht in einem Auto gefahren? Oder haben Sie einen
Klang gehört?}. Manche Kollegen sprechen sogar von der ``fünften
Grundrechenart''. Ich komme im Abschnitt~\ref{ssec:Rechen} darauf zurück.
In Internet finden Sie sehr viel Material zum Thema. Ich empfehle dieses
\href{https://www.youtube.com/watch?v=vA9dfINW4Rg}{Video vom MIT}. Die
Fachhochschule Hamburg hat ebenfalls ein nettes
\href{https://www.youtube.com/watch?v=oKWW8aWAdag}{Video} (``Warum die
Fourier-Analysis in den Anwendungen so wichtig ist und welche grundlegende Idee
dahinter steht''). Jörn Loviscach, mein persönlicher Held, hat natürlich auch
ein \href{https://av.tib.eu/media/10335}{Video}, ebenso auch Daniel Jung
(\href{https://www.youtube.com/watch?v=mMsa1uBHd9k}{$$Link}). Wenn Sie ein
wenig im Internet suchen, finden Sie noch sehr viel mehr Material.
\subsection{Integration als Skalarprodukt}
Ich komme noch einmal auf das Beispiel~\vref{bsp:Integration} zurück. Ich
betrachte den der Vektorraum $V = \cC([-π,π], )$ der reellwertigen stetigen
Funktionen auf dem Intervall $[-π,π]$. Wir haben schon gesehen, dass die
Abbildung
\[
\langle •, • \rangle : V V → , \quad (f, g)\frac{1}{π}·\int^{π}_{-π} f(t) · g(t) dt.
\]
ein Skalarprodukt ist. Rechnen Sie sofort mit Hilfe der bekannten
Additionstheoreme für Sinus und Kosinus nach, dass für alle positiven Zahlen $n$
und $m$ aus $$ die folgenden Gleichungen gelten:
\[
\bigl\langle \sin(n·x), \sin(m·x) \bigr\rangle = δ_{nm}, \quad
\bigl\langle \cos(n·x), \cos(m·x) \bigr\rangle = δ_{nm}, \quad
\bigl\langle \sin(n·x), \cos(m·x) \bigr\rangle = 0.
\]
Zusätzlich gilt für die konstante Funktion $\frac{1}{\sqrt{2}}$ noch Folgendes:
\[
\left\langle \frac{1}{\sqrt{2}}, \frac{1}{\sqrt{2}} \right\rangle = 1, \quad
\left\langle \cos(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0, \quad
\left\langle \sin(n·x), \frac{1}{\sqrt{2}} \right\rangle = 0.
\]
Insgesamt sehen wir, dass die Menge
\[
\mathcal{F} := \left\{ \frac{1}{\sqrt{2}}, \sin(x), \cos(x), \sin(2·x), \cos(2·x), … \right\}
\]
eine orthonormale Teilmengen des Euklidischen Vektorraumes
$\bigl( V, \langle •,• \rangle\bigr)$ ist.
\subsubsection{Rekonstruktion von Funktionen}
Es sei jetzt $F := \langle \mathcal{F} \rangle ⊆ V$ der von
$\mathcal{F}$ erzeugte Untervektorraum. Wenn ich jetzt irgendeine Funktion
$f ∈ F$ habe, dann kann ich die Zahlen
\begin{equation}\label{eq:12-2-0-1}
a_n := \left\langle f, \sin(n·x) \right\rangle, \quad
b_n := \left\langle f, \cos(n·x) \right\rangle, \quad
c := \left\langle f, \frac{1}{\sqrt{2}} \right\rangle
\end{equation}
ausrechnen und erhalte die Gleichung:
\begin{equation}\label{eq:12-2-0-2}
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\end{equation}
Beachte dabei, dass nur endlich viele der Zahlen $a_n$, $b_n$ von Null
verschieden sind, so dass auf der rechten Seite der
Gleichung~\eqref{eq:12-2-0-2} tatsächlich nur eine endliche Summe steht.
\subsection{Fourier-Reihen}
Dies ist ein Kapitel über Anwendungen. Es stellt sich also die Frage, welche
relevanten Funktionen in dem Vektorraum $F$ liegen? Die Antwort ist: praktisch
alle. Es gilt der folgende Satz der Analysis.
\begin{satz}
Es sei $f : [-π,π]$ stetig und abschnittsweise stetig differenzierbar.
Definiere Zahlen $a_n$, $b_n$ und $c$ wie in \eqref{eq:12-2-0-1}. Dann
konvergiert die Funktionenreihe
\begin{equation}\label{eq:12}
\frac{c}{\sqrt{2}} + \sum_{n=1}^\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\end{equation}
gleichmäßig (und damit punktweise) gegen $f$.
\end{satz}
\begin{defn}[Fourierkoeffizienten, Fouriereihe]
Man nennt die Zahlen $a_n$, $b_n$ und $c$ die
\emph{Fourierkoeffizienten}\index{Fourierkoeffizient} von $f$. Die
unendliche Summe \eqref{eq:12} heißt \emph{Fourierreihe}\index{Fourierreihe}
von $f$.
\end{defn}
In der Praxis ist es für die Untersuchung einer gegebenen Funktion $f$ meist gar
nicht nötig, die unendliche Fourierreihe zu betrachten. Oft liefert eine
endliche Summe wie etwa
\[
f \approx \frac{c}{\sqrt{2}} + \sum_{n=1}\bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\]
bereits eine absolut brauchbare Näherung. Abbildung~\ref{fig:app}, die ich bei
\href{https://de.wikipedia.org/wiki/Fourierreihe}{Wikipedia} gestohlen habe,
zeigt wie man eine Sprungfunktion annähert.
\subsubsection{Beispiele und Erklärvideos}
Weitere Beispiele gibt es bei
\href{https://de.wikipedia.org/wiki/Fourierreihe#Beispiele}{Wikipedia} und in
diesem phantastischem
\href{https://www.youtube.com/watch?v=lL0oUZGMhXc}{Erklärvideo vom MIT}.
Vielleicht schauen sie auch einmal in
\href{https://av.tib.eu/media/10336}{dieses Video} oder in
\href{https://www.youtube.com/watch?v=spUNpyF58BY}{dieses}. Sie finden im
Internet auch eine \href{https://www.google.com/search?q=fourier+applet}{große
Zahl von Applets}, bei denen man direkt mit den Näherungen spielen kann.
\begin{figure}
\centering
\includegraphics[width=150pt]{images/RechteckFourier.pdf}
\caption{Approximation einer Sprungfunktion}
\label{fig:app}
\end{figure}
\subsection{Fourier-Transformation}
Die Fourier-Reihen, die wir oben besprachen, werden verwendet, um Funktionen auf
dem Intervall $[-π,π]$ zu beschreiben, oder äquivalent gesagt: periodische
Funktionen mit Periode $2π$. Man kann ähnliche Konstruktionen auch für nahezu
beliebige Funktionen machen. Allerdings erhält man statt der
Fourier-Koeffizienten
\[
a_n := \frac{1}{π}·\int^{π}_{-π} f(t) · \sin(n·t) dt.
\]
dann eine Fourier-Transformierte, die man sinnvollerweise in komplexen Zahlen
schreibt
\[
F(t) = \frac{1}{\sqrt{2π}}·\int_{-}^{} f(x)·e^{-itx}dx.
\]
Aus der Reihendarstellung
\[
f = \frac{c}{\sqrt{2}} + \sum_{n=1}^{} \bigl( a_\sin(n·x) + b_\sin(n·x) \bigr)
\]
wird dann die Formel
\[
f(x) = \frac{1}{\sqrt{2π}}·\int_{-}^{} F(t)·e^{-itx}dt.
\]
Die Funktion $F$ nennt man ``Fourier-Transformierte'' oder
``Spektrum''. Spektren gibt es in der reellen Welt überall zum Beispiel in
unserem Ohr. Das Ohr ist ein ``Spektralapparat'', der auf mechanische Weise die
Fourier-Transformation der eingehenden Schallwelle berechnet und zum Gehirn
weiterleitet. Wenn man Akustik verstehen will, muss man Fourier-Transformation
verstehen. Dann kann man super-interessante Sachen machen.
\begin{itemize}
\item Um Klangdaten zu analysieren (etwa um mit dem Computer Sprache zu
analysieren), schaue man sich die Fourier-Transformation an. Es ist mit
diesen Methoden nicht schwierig, ein kleine Computerprogramm zu bauen, dass
ein gesprochenes ``e'' von einem ``a'' unterscheidet. Suchen Sie im Internet
nach ``Python'' und ``SciKit'', dann finden Sie alles, was sie brauchen.
\item Wenn ich das Spektrum eines Klanges berechnen kann, ist es super-einfach,
interessante Sound-Effekte zu programmieren. Zum Beispiel kann ich ein
Programm machen, das ein Musikstück schneller abspielt ohne die Tonhöhe zu
verändern.
\item Da sich das Gehirn nur für das Spektrum interessiert, muss ich mir das
Spektrum anschauen, wenn ich erkennen will, welche Teile eines Klanges für das
Gehirn interessant sind. Das bekannte Dateiformat MP3 funktioniert so: schaue
das Spektrum an, verwende ein mathematisch beschriebenes Modell der
akustischen Wahrnehmung von Tonsignalen (``psycho-akustisches Modell'') und
erkenne die Teile des Spektrums die für das Gehirn uninteressant sind. Lasse
diese Teile des Spektrums weg, um die Dateigröße zu verkleinern ohne den Klang
wesentlich zu verschlechtern.
\end{itemize}
Die Fourier-Transformation tritt aber noch an vielen anderen Stellen auf:
Signaltechnik, Analyse von Schwingungen in den Ingenieurswissenschaften, und in
der Elektronik. Sie ist aber auch die Grundlage der Quantenmechanik. Die
``Heisenbergsche Unschärferelation'', über die Philosophen viel schreiben, ist
eine simple Funktionalgleichung, die zwischen den Funktionen $f$ und $F$ gilt!
\subsection{Die fünf Grundrechenarten}
\label{ssec:Rechen}
Ich habe von Kollegen aus der Physik gehört, die Fourier-Transformation sei
wegen ihrer Wichtigkeit die ``fünfte Grundrechenart''. Das ist natürlich
falsch. Tatsache ist, dass moderne Prozessoren die
``\href{https://en.wikipedia.org/wiki/Fast_Fourier_transform}{schnelle
Fouriertransformation}'' extrem effizient ausführen können. Sehr viele
elektronischen Geräten enthalten zusätzlich Spezialchips zur
Fouriertransformation. Damit lässt sie die Fourier-Transformation so effizient
implementieren, dass Computer die Multiplikation ganzer Zahlen mit Hilfe von
Fourier-Transformation durchführen; Multiplikation ist also nur noch eine
Anwendung der schnellen Fouriertransformation.
\begin{quote}
Der Schönhage-Strassen-Algorithmus ist ein Algorithmus zur Multiplikation
zweier großer ganzer Zahlen. Er wurde 1971 von Arnold Schönhage und Volker
Strassen entwickelt. Der Algorithmus basiert auf einer sehr schnellen Variante
der diskreten schnellen Fourier-Transformation sowie einem geschickten Wechsel
zwischen der Restklassen- und der zyklischen Arithmetik in endlichen
Zahlenringen.
-- \href{https://en.wikipedia.org/wiki/Sch%C3%B6nhage%E2%80%93Strassen_algorithm}{Wikipedia}
\end{quote}
Schauen Sie sich auch einmal
\href{https://aimath.org/news/congruentnumbers/howtomultiply.html}{diesen
Artikel} an. Die Grundrechenarten im 21 Jahrhundert sind also nicht ``plus,
minus, mal, geteilt'' sondern ``plus, minus, Fourier-Transformation''.
\subsection{Warum Sinus und Kosinus}
Sie fragen sich vielleicht, was das besondere an Sinus und Kosinus ist? Warum
sind diese beiden Funktionen so wichtig? Eine Antwort ist: weil viele
natürliche Prozesse (wie etwa unser Gehör) aus Sinus und Kosinus basieren. Es
gibt aber noch andere Funktionen, mit denen man etwas ähnliches machen kann, zum
Beispiel die
\href{https://de.wikipedia.org/wiki/Kugelfl%C3%A4chenfunktionen}{Kugelflächenfunktionen},
die die quantenmechanischen Gleichungen zur Beschreibung von
wasserstoffähnlichen Atomen in besonders einfache Form bringen. Haben Sie
sich im Chemie-Unterricht schon einmal gefragt, warum die
\href{https://de.wikipedia.org/wiki/Atomorbital}{Atomorbitale} eigentlich
genau diese komischen Formen haben? Schauen Sie sich die
Kugelflächenfunktionen einmal an!
\section{Hauptkomponentenanalyse}
\sideremark{Vorlesung 19}Wussten Sie, dass der Raum der Persönlichkeitsmerkmale
von Menschen fünf-dimensional ist?
\begin{quote}
Bei den Big Five (auch Fünf-Faktoren-Modell, FFM) handelt es sich um ein
Modell der Persönlichkeitspsychologie. Im Englischen wird es auch als
OCEAN-Modell bezeichnet (nach den entsprechenden Anfangsbuchstaben Openness,
Conscientiousness, Extraversion, Agreeableness, Neuroticism).
Ihm zufolge existieren fünf Hauptdimensionen der Persönlichkeit und jeder
Mensch lässt sich auf folgenden Skalen einordnen:
\begin{itemize}
\item Offenheit für Erfahrungen (Aufgeschlossenheit),
\item Gewissenhaftigkeit (Perfektionismus),
\item Extraversion (Geselligkeit),
\item Verträglichkeit (Rücksichtnahme, Kooperationsbereitschaft, Empathie) und
\item Neurotizismus (emotionale Labilität und Verletzlichkeit).
\end{itemize}
Die Entwicklung der Big Five begann bereits in den 1930er Jahren mit dem
lexikalischen Ansatz, den Louis Thurstone, Gordon Allport und Henry Sebastian
Odbert verfolgten. Diesem liegt die Auffassung zugrunde, dass sich
Persönlichkeitsmerkmale in der Sprache niederschlagen; d. h. es wird
angenommen, dass alle wesentlichen Unterschiede zwischen Personen bereits im
Wörterbuch durch entsprechende Begriffe repräsentiert sind. Auf der Basis von
Listen mit über 18.000 Begriffen wurden durch Faktorenanalyse fünf sehr
stabile, unabhängige und weitgehend kulturstabile Faktoren gefunden: die Big
Five.
Die Big Five wurden später durch eine Vielzahl von Studien belegt und gelten
heute international als das universelle Standardmodell in der
Persönlichkeitsforschung. Sie wurden innerhalb der letzten zwanzig Jahre in
über 3.000 wissenschaftlichen Studien verwendet.
--- \href{https://de.wikipedia.org/wiki/Big_Five_(Psychologie)}{Wikipedia}
\end{quote}
Die Frage nach der Persönlichkeit mag ein bischen theoretisch vorkommen, ist
aber für Sie von großem praktischen Belang; Datenanalyse-Firmen verdienen viel
Geld damit, die fünf Koordinaten Ihrer Persönlichkeit für zahlende Kundschaft zu
ermitteln --- suchen Sie im Internet nach den Worten ``Stryker'',
``Bewerbungsgespräch'' und ``Gallup-Test'' um zu sehen, was ich meine.
\subsection{Wie kommt man auf die Zahl ``fünf''?}
Bis über die Schmerzgrenze hinaus übermäßig vereinfacht gesagt, so.
\begin{itemize}
\item Nimm eine Liste aller möglichen Adjektive der Englischen Sprache, die sich
auf ``Persönlichkeit'' beziehen -- bei Wikipedia ist von 18.000 Begriffen die
Rede.
\item Nimm eine möglichst große Gruppe von $P$ Probanden und messe für jeden
Probanden, wie stark die einzelnen Adjektive ausgeprägt sind. Wir erhalten
für jeden Probanden $p ∈ P$ einen Vektor im $\vec{v}_p ∈ ^{18000}$.
\item Stelle fest, dass es einen fünf-dimensionalen Vektorraum
$V ⊂ ^{18000}$ gibt, so dass die Vektoren $(\vec{v}_p)_{p ∈ P}$ im
Wesentlichen alle in $V$ liegen.
\item Stelle auch fest, dass es keinen vier-dimensionalen Untervektorraum mit
diesen Eigenschaften gibt.
\end{itemize}
Die Frage ist, wie man den Vektorraum $V$ jetzt praktisch findet; das ist die
Aufgabe der ``Hauptkomponentenanalyse''. Kurz gesagt berechnet man für je zwei
Adjektive $a_i$ und $a_j$ die Kovarianz $a_{ij}$.
\begin{quote}
Kovarianz: Der Wert dieser Kenngröße macht tendenzielle Aussagen darüber, ob
hohe Werte der einen Zufallsvariablen eher mit hohen oder eher mit niedrigen
Werten der anderen Zufallsvariablen einhergehen. Die Kovarianz ist ein Maß für
die Assoziation zwischen zwei Zufallsvariablen.
--- \href{https://de.wikipedia.org/wiki/Kovarianz_(Stochastik)}{Wikipedia}
\end{quote}
Wir erhalten so eine Kovarianzmatrix $A = (a_{ij})$. Der Witz ist jetzt, dass
diese Matrix symmetrisch ist und deshalb durch orthogonale Transformation
diagonalisiert werden kann. Jetzt kann ich mir die Einträge auf der Diagonalen
anschauen und stelle fest, dass auf der Diagonalen fünf betragsmäßig große
Zahlen stehen; alle anderen Zahlen sind vom Betrag recht klein.
\begin{aufgabe}
Lesen Sie das folgende \href{https://arxiv.org/pdf/1404.1100.pdf}{exzellente
Tutorial} zur Hauptkomponentenanalyse durch. Stellen Sie fest, dass der
wesentliche Punkt der Methode die Aussage ist, dass jede symmetrische Matrix
durch orthogonale Transformation diagonalisiert werden kann. Vielleicht
möchten Sie auch in
\href{https://ourarchive.otago.ac.nz/bitstream/handle/10523/7534/OUCS-2002-12.pdf}{diesen
Text} schauen.
\end{aufgabe}
\subsection{… und weiter?}
Hauptkomponentenanalyse wird in fast jedem Bereich der empirischen
Wissenschaften verwendet. Suchen Sie im Internet nach ``Hauptkomponentenanalyse
und Sportwissenschaft''. Wikipedia nennt unter anderem noch folgende Beispiele.
\begin{itemize}
\item Wendet man die Hauptkomponentenanalyse auf das Kaufverhalten von
Konsumenten an, gibt es möglicherweise latente Faktoren wie sozialer Status,
Alter oder Familienstand, die bestimmte Käufe motivieren. Hier könnte man
durch gezielte Werbung die Kauflust entsprechend kanalisieren.
\item Hat man ein statistisches Modell mit sehr vielen Merkmalen, könnte mit
Hilfe der Hauptkomponentenanalyse gegebenenfalls die Zahl der Variablen im
Modell reduziert werden, was meistens die Modellqualität steigert.
\item Anwendung findet die Hauptkomponentenanalyse auch in der Bildverarbeitung
insbesondere bei der Fernerkundung. Dabei kann man Satellitenbilder
analysieren und Rückschlüsse daraus ziehen.
\item Ein weiteres Gebiet ist die Künstliche Intelligenz, zusammen mit den
Neuronalen Netzen. Dort dient die PCA zur Merkmalstrennung im Rahmen der
automatischen Klassifizierung bzw. in der Mustererkennung.
\item In quantitative finance, principal component analysis can be directly
applied to the risk management of interest rate derivative portfolios. Trading
multiple swap instruments which are usually a function of 30-500 other market
quotable swap instruments is sought to be reduced to usually 3 or 4 principal
components, representing the path of interest rates on a macro
basis. Converting risks to be represented as those to factor loadings (or
multipliers) provides assessments and understanding beyond that available to
simply collectively viewing risks to individual 30-500 buckets.
\end{itemize}
% !TEX root = LineareAlgebra2