LineareAlgebra2/05-Skalarprodukt-im-Rn.tex
Stefan Kebekus 1c5823c039 Fix lingo
2025-05-07 14:17:36 +02:00

381 lines
15 KiB
TeX
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

% spell checker language
\selectlanguage{german}
\chapter{Das Standardskalarprodukt im $^n$}
\label{chap:eukl}
\section{Die Euklidische Norm und der Euklidische Abstand}
\label{sec:end}
\sideremark{Vorlesung 7}Bislang hatten wir in der Vorlesung „nur“ Vektorräume
und lineare Abbildungen betrachtet. Viele Vektorräume, die einem in der freien
Wildbahn begegnen haben aber noch mehr Struktur: es existiert oft ein Begriff
von „Länge“ oder „Norm“ eines Vektors. Ich diskutiere diesen Begriff zuerst
anhand der bekannten Euklidischen Länge des $^n$. Später diskutieren wir dann
beliebige Vektorräume.
\begin{defn}[Euklidische Norm auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
\[
\begin{matrix}
\|\| & : & ^n && \\
& &
\begin{pmatrix}
x_1 \\
\vdots \\
x_n
\end{pmatrix}
&& \sqrt{ \sum_{i=1}^n x²_i}
\end{matrix}
\]
heißt \emph{Euklidische Norm auf dem
$^n$}\index{Norm!Euklidische}\index{Euklidische Norm auf dem $^n$}.
\end{defn}
\begin{defn}[Euklidischer Abstand auf dem $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
\[
\begin{matrix}
d & :& ^n ^n && \\
&& (x,y) && \|x-y\|
\end{matrix}
\]
heißt \emph{Euklidischer Abstand auf dem $^n$}\index{Abstand|see{Metrik}}
oder \emph{Euklidische Metrik auf dem
$^n$}\index{Metrik!Euklidische}\index{Euklidische Metrik auf dem $^n$}.
\end{defn}
Konkret rechnet man also $\|x-y\| = \sqrt{ \sum_{i=1}^n (x_i-y_i)²}$.
\section{Abstandserhaltende Abbildungen}
Ähnlich wie bei den linearen Abbildungen (welche die Struktur des Vektorraumes
respektieren) interessiere ich mich für Abbildungen, die die Euklidische Norm
beziehungsweise den Euklidischen Abstand respektieren.
\begin{defn}
Es sei $n ∈ $ eine Zahl. Eine Abbildung $φ: ^n → ^n$ heißt
\emph{abstandserhaltend bezüglich der Euklidischen
Norm}\index{abstandserhaltende Abbildung|see{metrikerhaltende Abbildung}} oder
\emph{metrikerhaltend bezüglich der Euklidischen Norm}\index{metrikerhaltende
Abbildung!bezüglich der Euklidischen Norm}, falls gilt:
\[
d \bigl( φ(\vec{x}), φ(\vec{y}) \bigr) = d(\vec{x},\vec{y}), \quad \text{für alle } \vec{x},
\vec{y}^n.
\]
\end{defn}
\begin{bsp}[Translationen]
Es sei $n ∈ $ eine Zahl und $\vec{v}^n$ ein Vektor. Die
Abbildung
\[
T_{\vec{v}} : ^n → ^n, \quad \vec{x}\vec{x}+\vec{v}
\]
ist abstandserhaltend bezüglich der Euklidischen Norm. Man nennt Abbildungen
dieser Form \emph{Translationen}\index{Translation}.
\end{bsp}
\begin{bsp}
Spiegelungen und Drehungen der Ebene $ℝ²$ sind abstandserhaltend.
\end{bsp}
\subsection{Die Gruppenstruktur}
Wir nennen gleich einige einfache Eigenschaften von abstandserhaltenden
Abbildungen.
\begin{lem}[Einfache Eigenschaften abstandserhaltender Abbildungen]
Es sei $n ∈ $ eine Zahl und $φ: ^n → ^n$ sei abstandserhaltend bezüglich
der Euklidischen Norm. Dann gilt Folgendes.
\begin{enumerate}
\item\label{il:5-2-4-1} Die Abbildung $φ$ ist bijektiv.
\item\label{il:5-2-4-2} Die Umkehrabbildung $φ^{-1}$ ist ebenfalls
abstandserhaltend.
\end{enumerate}
Zusätzlich gilt:
\begin{enumerate}
\item\label{il:5-2-4-3} Die Verknüpfung abstandserhaltender Abbildungen ist
abstandserhaltend.
\end{enumerate}
\end{lem}
\begin{proof}
Wir beweisen die Teilaussage „$φ$ ist injektiv“ von \ref{il:5-2-4-1}:
angenommen $\vec{v}_1$ und $\vec{v}_2$ seien zwei Vektoren mit $φ(\vec{v}_1) =
φ(\vec{v}_2)$. Dann ist
\[
d(\vec{v}_1,\vec{v}_2) = d\bigl( φ(\vec{v}_1), φ(\vec{v}_2) \bigr) = 0.
\]
Also ist $\vec{v}_1 = \vec{v}_2$, was zu beweisen war. Die Teilaussage „$φ$
ist surjektiv“ beweise ich nicht. Die Beweise von \ref{il:5-2-4-2} und
\ref{il:5-2-4-3} lasse ich Ihnen als Übungsaufgabe.
\end{proof}
\begin{kor}[Abstandserhaltenden Abbildungen bilden Gruppe]\label{kor:5-2-5}
Abstandserhaltende Abbildungen bilden mit der Verknüpfung eine Untergruppe der
Gruppe der bijektiven Selbstabbildungen $\Bij(^n)$. \qed
\end{kor}
\section{Orthogonale Transformationen}
\label{sec:orthTrafo}
Das Ziel im laufenden Kapitel~\ref{chap:eukl} ist, die abstandserhaltenden
Abbildungen zu verstehen. Die folgende Beobachtung vereinfacht das Problem
enorm.
\begin{beobachtung}
Es sei $n ∈ $ eine Zahl und es sei $φ: ^n → ^n$ irgendeine
abstandserhaltende Abbildung und $\vec{c} := φ(\vec{0})$. Dann ist die
Abbildung
\[
ψ: ^n → ^n, \quad \vec{x} ↦ φ(\vec{x}) - \vec{c}
\]
wieder abstandserhaltend. Zusätzlich gilt: $ψ(\vec{0}) = \vec{0}$.
\end{beobachtung}
Um alle abstandserhaltenden Abbildungen zu kennen, genügt es also, diejenigen
abstandserhaltenden Abbildungen zu verstehen, die den Nullvektor wieder auf den
Nullvektor abbilden. Solche Abbildungen heißen „orthogonale Transformation“.
\begin{defn}[Orthogonale Transformation]\label{defn-orthoTraf}%
Es sei $n ∈ $ eine Zahl. Eine \emph{orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands}\index{Transformation des
$^n$!orthogonal bezüglich des Euklidischen Abstands} ist eine
abstandserhaltende Abbildung $ψ: ^n ˝→ ^n$ mit $ψ(\vec{0}) = \vec{0}$.
\end{defn}
\subsection{Die Gruppenstruktur}
Genau wie in Korollar~\ref{kor:5-2-5} stellen wir fest, dass die orthogonale
Transformation eine Gruppe bilden.
\begin{defn}[Orthogonale Gruppe]\label{def:5-3-3}
Es sei $n ∈ $ eine Zahl. Die orthogonalen Transformationen bilden mit der
Verknüpfung eine Untergruppe der Gruppe der bijektiven Selbstabbildungen
$\Bij(^n)$. Man nennt diese Gruppe die \emph{orthogonale Gruppe des $^n$
bezüglich der Euklidischen Norm}\index{orthogonale Gruppe!des $^n$
bezüglich der Euklidischen Norm}.
\end{defn}
\section{Das Standardskalarprodukt auf dem $^n$}
Wir wollen alle orthogonalen Transformationen beschreiben. Das wesentliche
Hilfsmittel dabei ist das „Standardskalarprodukt auf dem $^n$“.
\begin{defn}[Standardskalarprodukt $^n$]
Es sei $n ∈ $ eine Zahl. Die Abbildung
\[
\begin{matrix}
\langle •, • \rangle & : & ^n ^n && \\
& &
\left(
\begin{pmatrix}
x_1 \\
\vdots \\
x_n
\end{pmatrix},
\begin{pmatrix}
y_1 \\
\vdots \\
y_n
\end{pmatrix}
\right)
&& \sum_{i=1}^n x_i·y_i
\end{matrix}
\]
heißt \emph{Standardskalarprodukt $^n$}\index{Standardskalarprodukt!auf $^n$}.
\end{defn}
Das Standardskalarprodukt ist natürlich schrecklich wichtig. Die folgenden
einfachen Eigenschaften rechnet man sofort nach. Ich verzichte deshalb auf einen
Beweis. Vielleicht beweisen Sie zu Übungszwecken die eine oder andere
Eigenschaft einmal selbst?
\begin{lem}[Einfache Eigenschaften des Standard-Skalarprodukts]
Es sei $n ∈ $ eine Zahl. Dann gilt Folgendes.
\begin{description}
\item[Linearität im ersten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x} + λ·\vec{y}, \vec{z} \rangle = \langle \vec{x}, \vec{z}
\rangle + λ·\langle \vec{y}, \vec{z} \rangle.
\]
\item[Linearität im zweiten Argument] Für alle $\vec{x}, \vec{y}$ und
$\vec{z}^n$ und alle $λ ∈ $ gilt
\[
\langle \vec{x}, \vec{y} + λ·\vec{z} \rangle = \langle \vec{x}, \vec{y}
\rangle + λ·\langle \vec{x}, \vec{z} \rangle.
\]
\item[Positive Definitheit] Für alle $\vec{x}^n$ gilt $\langle \vec{x},
\vec{x} \rangle0$. Außerdem gilt $\langle \vec{x}, \vec{x} \rangle = 0
\vec{x} = \vec{0}$.
\item[Symmetrie] Für alle $\vec{x}$ und $\vec{y}^n$ gilt
$\langle \vec{x}, \vec{y} \rangle = \langle \vec{y}, \vec{x} \rangle$.
\item[Satz des Pythagoras]\index{Pythagoras!für $^n$} Für alle $\vec{x}$
und $\vec{y}^n$ gilt
\[
\| \vec{x} + \vec{y} \|² = \| \vec{x} \|² + 2·\langle \vec{x}, \vec{y}
\rangle + \| \vec{y} \|². \eqno \qed
\]
\end{description}
\end{lem}
Die folgenden Begriffe sind sehr viel wichtiger, als es im Moment vielleicht
scheint.
\begin{defn}[Orthogonale Vektoren]
Es sei $n ∈ $ eine Zahl. Man nennt zwei Vektoren $\vec{x}$ und
$\vec{y}^n$ \emph{zueinander orthogonal}, falls
$\langle \vec{x}, \vec{y} \rangle = 0$ ist\index{orthogonal!Paar von
Vektoren}.
\end{defn}
\begin{defn}[Orthonormalbasis]
Eine Basis $\{\vec{v}_1, …, \vec{v}_n\}^n$ heißt \emph{Orthonormalbasis
bezüglich des Standardskalarprodukts}\index{Orthonormalbasis} (unter
Freunden: ONB), falls für alle $i, j$ gilt, dass $\langle \vec{v}_i,
\vec{v}_j \rangle = δ_{ij}$, wobei $δ_{ij}$ wie üblich das Kronecker-Delta
bezeichnet.
\end{defn}
\begin{bsp}
Die Standardbasis des $^n$ ist eine Orthonormalbasis bezüglich des
Standardskalarprodukts.
\end{bsp}
Die folgende einfache Beobachtung und für viele der folgenden Beweise zentral.
\begin{beobachtung}[Coefficient Picking]\label{bem:Ortho}
Es sei eine Menge $\{\vec{v}_1, …, \vec{v}_n\}$ von Vektoren des $^n$
gegeben, wobei $\langle \vec{v}_i, \vec{v}_j \rangle = δ_{ij}$ sei. Weiter sei
$\vec{x}^n$ ein Vektor, den ich als Linearkombination darstellen kann:
\[
\vec{x} = \sum_{i=1}^n λ_\vec{v}_i .
\]
Um die Koeffizienten $λ_i$ auszurechnen, muss ich normalerweise komplizierte
Gleichungssysteme lösen. Hier ist alles viel einfachen, denn es gilt für
jeden Index $j$
\[
\langle \vec{x}, \vec{v}_j \rangle %
= \left\langle \sum λ_\vec{v}_i, \vec{v}_j \right\rangle %
= \sum λ_\langle \vec{v}_i, \vec{v}_j \rangle %
= \sum λ_i·δ_{ij} = λ_j.
\]
Ich kann den Koeffizienten $λ_j$ also durch ein Skalarprodukt ausrechnen. Das
geht meist \emph{viel} schneller als das Lösen von Gleichungssystemen!
\end{beobachtung}
\subsection{Standardskalarprodukt und orthogonale Transformationen}
Was haben orthogonale Transformationen mit dem Standardskalarprodukt zu tun?
Eine Menge, wie wir sofort sehen werden.
\begin{lem}[Abbildung $φ$ erhält das Standardskalarprodukt]\label{lem:5-4-7}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann gilt für alle $\vec{x}$ und $\vec{y}^n$ die
Gleichung
\[
\langle φ(\vec{x}), φ(\vec{y}) \rangle = \langle \vec{x}, \vec{y} \rangle.
\]
\end{lem}
\begin{proof}
Seien $\vec{x}, \vec{y}^n$ gegeben. Dann gilt
\begin{align*}
\langle \vec{x}, \vec{y} \rangle &= -\langle \vec{x}, -\vec{y} \rangle \\
&= -\frac{1}{2} \Bigl( \| \vec{x} - \vec{y} \|² - \| \vec{x} \|² - \| -\vec{y} \|² \Bigr) && \text{Pythagoras} \\
&= -\frac{1}{2} \Bigl( d(\vec{x},\vec{y})² - d \bigl(\vec{x},\vec{0}\bigr)² - d\bigl(\vec{y},\vec{0}\bigr\Bigr) && \text{Definition}\\
&= -\frac{1}{2} \Bigl( d\bigl(φ(\vec{x}),φ(\vec{y})\bigr)² - d\bigl(φ(\vec{x}),\vec{0}\bigr)² - d\bigl(φ(\vec{y}),\vec{0}\bigr\Bigr) && φ\text{ ist abstandserhaltend}\\
&= -\frac{1}{2} \Bigl( \| φ(\vec{x}) - φ(\vec{y}) \|² - \| φ(\vec{x}) \|² - \|-φ(\vec{y}) \|² \Bigr) && \text{Definition}\\
&= -\bigl\langle φ(\vec{x}), -φ(\vec{y}) \bigr\rangle = \bigl\langle φ(\vec{x}), φ(\vec{y}) \bigr\rangle. && \text{Pythagoras.}
\end{align*}
Damit ist das Lemma bewiesen.
\end{proof}
\begin{lem}[Bild von ONB unter orthogonaler Transformation ist ONB]\label{claim:5-4-8}%
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands und es sei $\vec{v}_1, …, \vec{v}_n$ eine
Orthonormalbasis des $^n$. Dann ist $φ(\vec{v}_1), …, φ(\vec{v}_n)$ wieder
eine Orthonormalbasis des $^n$.
\end{lem}
\begin{proof}
\video{7-1}
\end{proof}
\section{Beschreibung der orthogonalen Transformationen}
\label{sec:5-5}
Mithilfe unserer Vorbereitungen können wir jetzt die orthogonalen
Transformationen des $^n$ (und damit auch die abstandserhaltenden Abbildungen)
vollständig beschreiben.
\begin{satz}[Linearität orthogonaler Transformationen]\label{satz:5-5-1}
Es sei $φ: ^n → ^n$ eine orthogonale Transformation des $^n$ bezüglich des
Euklidischen Abstands. Dann ist die Abbildung $φ$ linear.
\end{satz}
\begin{proof}
Für jeden Index $i$ setze $\vec{v}_i := φ(e_i)$. Nach Lemma~\ref{claim:5-4-8}
bilden Sie $v_i$ dann eine ONB des $^n$ bilden. Überlegen Sie sich folgendes
als Hausaufgabe: um die Linearität von $φ: ^n → ^n$ zu zeigen, genügt es
also, zu zeigen, dass für alle Indizes $j$ die $$-wertigen Abbildungen
\[
η_j : ^n → , \quad \vec{x}\langle φ(\vec{x}), \vec{v}_j \rangle
\]
allesamt linear sind. Sei also ein Index $j$ gegeben, seien $\vec{x}$,
$\vec{y}^n$ und sei $λ ∈ $. Dann gilt
\begin{align*}
η_j(\vec{x}+λ·\vec{y}) &= \langle φ(\vec{x} + λ·\vec{y}), \vec{v}_j \rangle \\
&= \langle φ(\vec{x} + λ·\vec{y}), φ(\vec{e}_j) \rangle\\
&= \langle \vec{x} + λ·\vec{y}, \vec{e}_j \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle \vec{x}, \vec{e}_j \rangle + λ·\langle \vec{y}, \vec{e}_j \rangle && \text{Linearität in der 2.~Kpte.}\\
&= \langle φ(\vec{x}), φ(\vec{e}_j) \rangle + λ·\langle φ(\vec{y}), φ(\vec{e}_j) \rangle && \text{Lemma~\ref{lem:5-4-7}} \\
&= \langle φ(\vec{x}), \vec{v}_j \rangle + λ·\langle φ(\vec{y}), \vec{v}_j \rangle \\
&= η_j(\vec{x}) + λ·η_j(\vec{y}).
\end{align*}
Damit ist die Linearität gezeigt. \qed
\end{proof}
\begin{satz}[Matrizen orthogonaler Transformationen]\label{satz:5-5-2}
Es sei $φ: ^n → ^n$ eine lineare Abbildung, die bezüglich der Standardbasis
des $^n$ durch die Matrix $Q$ dargestellt wird. TFAE:
\begin{enumerate}
\item Die Abbildung $φ$ ist eine orthogonale Transformation des $^n$
bezüglich des Euklidischen Abstands.
\item Die Matrix $Q$ erfüllt die Gleichung $Q^t·Q = \Id_{n n}$, wobei $Q^t$
wie üblich die zu $Q$ transponierte Matrix bezeichnet.
\end{enumerate}
\end{satz}
\begin{proof}
\video{7-2}
\end{proof}
Wenn eine Matrix $A ∈ Gl_n()$ die Gleichung $A^t·A = \Id_{n n}$ erfüllt, ist
es \emph{extrem} einfach, die inverse Matrix $A^{-1}$ auszurechnen. Ich brauche
keine Gleichungssysteme und keinen langwierigen Gauß-Algorithmus.
\begin{defn}[Orthogonale Matrix]\label{def:5-5-3}
Eine Matrix $A ∈ Gl_n()$ heißt \emph{orthogonal}\index{orthogonal!Matrix},
falls die Gleichung $A^t·A = \Id_{n n}$.
\end{defn}
\begin{defn}[Orthogonale Gruppe]
Die orthogonalen Matrizen bilden eine Untergruppe von $Gl_n()$, genannt
\emph{Gruppe der orthogonalen Matrizen}\index{orthogonale Gruppe!Matrizen}.
\end{defn}
Es ist üblich, die Gruppe der orthogonalen Matrizen auch kurz mit „orthogonale
Gruppe“ zu bezeichnen, obwohl sich das mit der Definition~\vref{def:5-3-3}
überschneidet. Um Verwirrung zu vermeiden, bevorzuge ich die ausführliche Form.
% !TEX root = LineareAlgebra2